Top.Mail.Ru

Anthropic вступает в конфликт с Пентагоном из-за безопасности искусственного интеллекта

5 февраля компания Anthropic выпустила Claude Opus 4.6, свою самую мощную модель искусственного интеллекта. Среди новых функций модели — способность координировать работу команд автономных агентов — нескольких ИИ, которые распределяют работу между собой и выполняют ее параллельно. Через 12 дней после выхода Opus 4.6 компания представила Sonnet 4.6 — более дешевую модель, которая почти не уступает Opus по уровню программирования и вычислительным возможностям. 

Sonnet 4.6 может перемещаться по веб-приложениям и заполнять формы с точностью, сравнимой с человеческой, по данным Anthropic.

Корпоративные клиенты сейчас приносят Anthropic около 80 % дохода, а на прошлой неделе компания завершила раунд финансирования на сумму 30 миллиардов долларов при оценке в 380 миллиардов долларов. По всем показателям Anthropic — одна из самых быстрорастущих технологических компаний в истории.


Однако, несмотря на громкие анонсы новых продуктов и высокую оценку стоимости, Anthropic столкнулась с серьезной угрозой: Пентагон дал понять, что может отнести компанию к «рискованным поставщикам» — такой ярлык чаще всего навешивают на иностранных противников, — если она не снимет ограничения на использование в военных целях. Такое решение может фактически лишить подрядчиков Пентагона доступа к Claude для выполнения секретных работ.


Напряженность возросла после того, как 3 января силы специального назначения США провели рейд в Венесуэле и взяли в плен Николаса Мадуро. По данным The Wall Street Journal, во время операции спецназ использовал систему Claude, разработанную компанией Anthropic в партнерстве с оборонным подрядчиком Palantir. По информации Axios, этот эпизод обострил и без того напряженные переговоры о том, для чего именно можно использовать Claude. Когда представитель Anthropic обратился в Palantir с вопросом, использовалась ли эта технология во время рейда, в Пентагоне тут же забили тревогу. (В Anthropic опровергли информацию о том, что это обращение было направлено на выражение несогласия с какой-либо конкретной операцией.) Министр обороны США Пит Хегсет «близок» к тому, чтобы разорвать отношения с Anthropic, сообщил Axios высокопоставленный представитель администрации, добавив: «Мы позаботимся о том, чтобы они поплатились за то, что вынудили нас пойти на такой шаг».

Это столкновение поднимает вопрос: сможет ли компания, созданная для предотвращения катастроф, связанных с искусственным интеллектом, придерживаться этических принципов, если ее самые мощные инструменты — автономные агенты, способные обрабатывать огромные массивы данных, выявлять закономерности и действовать в соответствии с полученными выводами, — будут работать в секретных военных сетях? Совместим ли ИИ, ориентированный на безопасность, с требованиями клиентов, которым нужны системы, способные мыслить, планировать и действовать самостоятельно в военных масштабах?

Компания Anthropic обозначила две красные линии: никакого массового наблюдения за американцами и никакого полностью автономного оружия.

После разоблачений Эдварда Сноудена правительство США выступило в защиту массового сбора телефонных метаданных — кто кому звонил, когда и как долго, — утверждая, что такие данные не защищены так же, как содержание разговоров. Тогда споры о конфиденциальности касались того, что эти записи просматривали люди. А теперь представьте, что система искусственного интеллекта запрашивает огромные массивы данных, анализирует связи, выявляет закономерности и отмечает людей, представляющих интерес для властей. Существующая правовая база была создана в эпоху, когда решения принимались людьми, а не машинным анализом.


5 февраля компания Anthropic выпустила Claude Opus 4.6, свою самую мощную модель искусственного интеллекта. - изображение

#искусственный интеллект

0 / 2000
Ваш комментарий
Тебя ждёт миллион инвесторов
Регистрируйся бесплатно, чтобы учиться у лучших, следить за инсайтами и повторять успешные стратегии
Мы используем файлы cookie, чтобы улучшить ваш опыт на нашем сайте
Нажимая «Принять», вы соглашаетесь на использование файлов cookie в соответствии с Политикой конфиденциальности. Можно самостоятельно управлять cookie через настройки браузера: их можно удалить или настроить их использование в будущем.