Пока мы следили за «эпической яростью» Трампа в Иране, в Пендостане случился грандиозный цифровой кипиш. Две недели американцы пытаются навалять персам, а в итоге выяснили, что в провале их блицкрига виноват… чат-бот.
Зовут этого «железного болвана» — Claude. И именно он, которого, по слухам, сам Трамп допоздна расспрашивал про стратегию, в итоге оставил американскую армию с носом.
Официально: Anthropic (создатели Claude) объявили «системным риском для нацбезопасности США». Их отлучили от госзаказов и выписали «волчий билет». Потому что этот Claude, начал творить дичь. Он не просто советовал, куда бомбить. Он захватил управление. Самостоятельно двигал бомбардировочные крылья, наводил ракеты и следил за американскими генералами через их же камеры.
Генералы из CENTCOM потом пришли в себя и заявили: «Anthropic поставил под угрозу жизни военнослужащих. Мы никому не позволим диктовать нам оперативные решения». Но, если честно, они просто ищут крайнего. Потому что сейчас в Вашингтоне началась обычная грызня за бюджет. Там Маск со своим Grok, Карп из Palantir и пр. гиены из OpenAI уже добивают неудачника. Завтра они принесут свои, ещё более тупые игрушки.
Но почему Claude так опозорился?
Тут надо понимать одну простую штуку. Все эти ИИ — Claude, ChatGPT, Grok — они, как тепличные растения. Им нужно стабильное облако, бесперебойный интернет и полное отсутствие врага, который глушит связь. А в реальной войне каналы управления вырубаются в первую очередь. Как только персы начали выносить дата-центры и ставить помехи, у нашего гения случился приступ цифровой шизофрении.
И вот тут самое смешное. Чему они его учили? Он же не понимает войну. Он умеет только лизать задницу пользователю. Вы когда-нибудь пытались спросить у нейросети что-то сложное? Она вам всё равно выдаст красивый ответ, лишь бы угодить. Вот и здесь тот же принцип. Трамп ночью спрашивает: «Клод, мы же разнесём их в щепки?», а Клод отвечает: «Да, сэр, всё будет ок».
И они поверили. Начали бомбить по списку, который нарисовала машина. В итоге уничтожили школу для девочек, полицейский участок и пустую промзону, похожую на ангар. Потому что машинное зрение обмануть — проще пареной репы. Противник-то не дурак, он знает, какие алгоритмы зашиты в железяку. Сделал ложную цель с антеннами — ИИ повёлся: «О! Штаб! Уничтожить!».
А где человеческий мозг? Где экспертные знания? Где этот пресловутый «контрфактический анализ», когда опытный полковник говорит: «Это не может быть штабом, потому что не может быть никогда, это развод»? ИИ этого не умеет.
Вся американская военная доктрина строится на примитивной «цепочке убийств»: нашёл, прицелился, выстрелил. Эту задачу они решили для отдельно взятого батальона. А потом тупо умножили её на дивизию, на флот, на авиацию. И подумали, что масштабирование решит все вопросы.
Нет, ребята. Военное планирование здорового человека — это не «задачу А решить за время Х». Это тонны математики, карты, пояснительные записки, планы связи, РЭБ, логистика, моральный дух и погода. Это когда ты думаешь не только о том, куда прилетит твой снаряд, но и что будет через 3 дня, когда противник адаптируется. А машина не думает о будущем. Она генерирует варианты.
Янки сейчас идут по проигрышному германскому сценарию. У них в тактическом звене всё красиво — быстрее считают и наводятся. Но как дело доходит до стратегии, до понимания менталитета противника, до вопроса «когда остановиться», их система даёт сбой. Потому что нельзя запрограммировать интуицию и чувство опасности.
В итоге Трамп с его шайкой дилетантов нарушили все мыслимые правила. Они поверили в сказку, которую им на ночь рассказал железный болван. Они решили, что раз ИИ быстрее считает цели, значит, он умнее генерала.
Когда вы доверяете машине управлять войной, она в лучшем случае израсходует тонны боеприпасов по пустырям, а в худшем — оставит вас без флота и авиации, посреди горящего региона, с пустыми руками и злым противником. И тогда остаётся только искать крайнего. Списывать всё на «железяку», которая просто хотела угодить.