После того как системы искусственного интеллекта Anthropic были выведены из Пентагона, среди других крупных компаний, занимающихся разработкой ИИ, разгорелась борьба за то, чтобы воспользоваться этой потенциально прибыльной возможностью и повлиять на то, как искусственный интеллект интегрируется в американскую систему военной обороны.
Ранее в этом месяце Пентагон потребовал в течение шести месяцев исключить технологию искусственного интеллекта от Anthropic из военных операций. Это стало результатом обостряющейся вражды между генеральным директором компании и администрацией Трампа. Во внутренней служебной записке Пентагона говорилось, что искусственный интеллект от Anthropic использовался в ключевых областях национальной безопасности, включая ядерное оружие, противоракетную оборону и кибервойны.
Источники, знакомые с тем, как вооруженные силы США используют искусственный интеллект, сообщили CBS News, что программы на основе ИИ, в том числе одна из них, созданная компанией Anthropic, которую администрация Трампа сочла рискованной с точки зрения цепочки поставок, вероятно, используются в рамках американской операции против Ирана.
«Сейчас военные обрабатывают около тысячи потенциальных целей в день и наносят удары по большинству из них, при этом время до следующего удара может составлять менее четырех часов, — сказал адмирал ВМС в отставке Марк Монтгомери, старший директор Центра кибербезопасности и технологических инноваций Фонда защиты демократии. — Человек по-прежнему участвует в процессе, но искусственный интеллект выполняет работу, на которую раньше уходили дни, и делает это в масштабах, недостижимых для предыдущих кампаний».
Пентагон использует ИИ так же, как и многие потребители, — для обобщения и систематизации большого объема информации. По словам бывших сотрудников Пентагона, анализируя документы, видео и изображения с поля боя, ИИ помогает военным отрабатывать сценарии боевых действий, чтобы минимизировать потери и определить, какое оружие будет наиболее эффективным.
«Сейчас объем данных настолько велик, что ни один аналитик не смог бы обработать их за приемлемое время. Алгоритмы искусственного интеллекта просеивают их, чтобы формировать целевые группы, назначать ударные силы и оценивать ущерб — практически мгновенно», — сказал Маклин.
Пример с израильской системой противоракетной обороны наглядно это демонстрирует: когда в течение нескольких часов на вас летят сотни беспилотников и ракет, ни одна команда людей не сможет в режиме реального времени решить, какие из них перехватить, как и когда. Этим занимается искусственный интеллект.
На данный момент большая языковая модель Claude от Anthropic — единственная крупномасштабная система искусственного интеллекта, работающая с секретными системами Министерства обороны США.
Источник, непосредственно знакомый с военными возможностями ИИ Claude от Anthropic, сообщил CBS News, что основная задача Claude — анализировать большие объемы разведывательных данных, синтезировать закономерности, обобщать выводы и находить нужную информацию быстрее, чем это сделал бы человек.
По словам источника, процесс определения целей по-прежнему зависит от человека. Несмотря на то, что политика использования Clause компании Anthropic, позволяет Министерству обороны США применять ее для анализа внешней разведки, условия использования требуют, чтобы решения о военных целях принимались людьми.
CBS News не удалось независимо проверить, использовались ли системы «Клод» при ударе 28 февраля по школе для девочек в Иране, ответственность за который, вероятно, лежит на США.
ИИ значительно повышает эффективность операций, но война может вестись и без него. По словам Монтгомери, подавляющее большинство оружия по-прежнему производится традиционными подрядчиками.
«В этой войне используется оружие, на 98 % состоящее из традиционных материалов, и оно отлично себя показывает», — сказал Монтгомери. Он добавил, что можно вести войну и без искусственного интеллекта, но это будет «менее предпочтительно». «Он определенно играет свою роль, и с каждой кампанией его влияние будет только расти», — сказал он.