5 февраля компания Anthropic выпустила Claude Opus 4.6, свою самую мощную модель искусственного интеллекта. Среди новых функций модели — способность координировать работу команд автономных агентов — нескольких ИИ, которые распределяют работу между собой и выполняют ее параллельно. Через 12 дней после выхода Opus 4.6 компания представила Sonnet 4.6 — более дешевую модель, которая почти не уступает Opus по уровню программирования и вычислительным возможностям.
Sonnet 4.6 может перемещаться по веб-приложениям и заполнять формы с точностью, сравнимой с человеческой, по данным Anthropic.
Корпоративные клиенты сейчас приносят Anthropic около 80 % дохода, а на прошлой неделе компания завершила раунд финансирования на сумму 30 миллиардов долларов при оценке в 380 миллиардов долларов. По всем показателям Anthropic — одна из самых быстрорастущих технологических компаний в истории.
Однако, несмотря на громкие анонсы новых продуктов и высокую оценку стоимости, Anthropic столкнулась с серьезной угрозой: Пентагон дал понять, что может отнести компанию к «рискованным поставщикам» — такой ярлык чаще всего навешивают на иностранных противников, — если она не снимет ограничения на использование в военных целях. Такое решение может фактически лишить подрядчиков Пентагона доступа к Claude для выполнения секретных работ.
Напряженность возросла после того, как 3 января силы специального назначения США провели рейд в Венесуэле и взяли в плен Николаса Мадуро. По данным The Wall Street Journal, во время операции спецназ использовал систему Claude, разработанную компанией Anthropic в партнерстве с оборонным подрядчиком Palantir. По информации Axios, этот эпизод обострил и без того напряженные переговоры о том, для чего именно можно использовать Claude. Когда представитель Anthropic обратился в Palantir с вопросом, использовалась ли эта технология во время рейда, в Пентагоне тут же забили тревогу. (В Anthropic опровергли информацию о том, что это обращение было направлено на выражение несогласия с какой-либо конкретной операцией.) Министр обороны США Пит Хегсет «близок» к тому, чтобы разорвать отношения с Anthropic, сообщил Axios высокопоставленный представитель администрации, добавив: «Мы позаботимся о том, чтобы они поплатились за то, что вынудили нас пойти на такой шаг».
Это столкновение поднимает вопрос: сможет ли компания, созданная для предотвращения катастроф, связанных с искусственным интеллектом, придерживаться этических принципов, если ее самые мощные инструменты — автономные агенты, способные обрабатывать огромные массивы данных, выявлять закономерности и действовать в соответствии с полученными выводами, — будут работать в секретных военных сетях? Совместим ли ИИ, ориентированный на безопасность, с требованиями клиентов, которым нужны системы, способные мыслить, планировать и действовать самостоятельно в военных масштабах?
Компания Anthropic обозначила две красные линии: никакого массового наблюдения за американцами и никакого полностью автономного оружия.
После разоблачений Эдварда Сноудена правительство США выступило в защиту массового сбора телефонных метаданных — кто кому звонил, когда и как долго, — утверждая, что такие данные не защищены так же, как содержание разговоров. Тогда споры о конфиденциальности касались того, что эти записи просматривали люди. А теперь представьте, что система искусственного интеллекта запрашивает огромные массивы данных, анализирует связи, выявляет закономерности и отмечает людей, представляющих интерес для властей. Существующая правовая база была создана в эпоху, когда решения принимались людьми, а не машинным анализом.

#искусственный интеллект