В позапрошлую пятницу Трамп приказал всем федеральным агентствам США прекратить использование Anthropic. Министр обороны Хегсет объявил компанию "риском для цепочки поставок" - статус, который обычно дают Huawei и другим компаниям из враждебных стран.
Что произошло?
Claude - модель от Anthropic - была единственной ИИ-системой, работающей на засекреченных сетях Пентагона. Контракт на $200 млн через Palantir. Claude использовали в реальной военной операции по захвату президента Венесуэлы Мадуро в январе.
Пентагон потребовал снять все ограничения: разрешить массовую слежку за гражданами и автономное оружие. CEO Anthropic Дарио Амодеи отказался. Сказал: "Угрозы не меняют нашу позицию. Мы не можем с чистой совестью выполнить их требование."
Пентагон пригрозил Defense Production Act - законом времён Корейской войны, который позволяет принудить компанию передать технологию.
Anthropic не сдался. Трамп отключил их. OpenAI тут же подписал контракт с Пентагоном.
Уважаю позицию Амодеи. Серьёзно. Человек потерял контракт на $200 млн и рискует потерять клиентскую базу, потому что отказался снимать ограничения на слежку и автономное оружие. Claude после этого стал #1 в App Store - люди поддержали.
Но теперь холодный вопрос для российского бизнеса.
Вы используете Claude для работы с клиентскими данными, финансовыми отчётами, бизнес-стратегиями, внутренними документами. Ваши промпты идут через компанию, которая:
Была интегрирована в засекреченную военную инфраструктуру США
Работала с Palantir (главный подрядчик спецслужб)
Участвовала в реальной военной операции
Находится под давлением правительства, которое угрожает принудить её по военному закону
Сегодня Амодеи отказался. Завтра - может не отказаться. Или его принудят. Или заменят на того, кто не откажется. OpenAI уже подписал контракт без ограничений.
И это не теория заговора. Это публичная информация из Washington Post, CNN, NPR, CBS News. Всё произошло на этой неделе.
Для американских пользователей это вопрос этики и политики. Для российского бизнеса - вопрос элементарной безопасности. Ваши данные на серверах компании, судьбу которой решает Пентагон.
При этом Claude в России и так работает через костыли: VPN + иностранная карта + риск блокировки аккаунта. То есть вы идёте на все эти сложности, чтобы отправлять свои бизнес-данные компании под давлением военного ведомства другой страны.
Альтернатива существует.
DeepSeek V3 - open source, код открыт, можно развернуть на собственном сервере в России. Никакой Пентагон не отключит, никакой Defense Production Act не применит.
Qwen от Alibaba - открытые модели, по бенчмаркам на уровне Claude. Работают из России без VPN.
Суверенитет данных - это не лозунг для конференций. После этой пятницы это конкретный, измеримый бизнес-риск. Компания, которой вы доверяете свои данные, может быть принуждена передать технологию военным. Или отключена президентским указом. Или объявлена "риском для нацбезопасности" за то, что отказалась выполнять требования.
Амодеи поступил достойно. Но строить бизнес на надежде, что следующий CEO тоже откажется - это не стратегия. Это рулетка.
P.S. VibePilot работает на DeepSeek и Qwen. Данные на российских серверах. Не потому что мы против Claude. А потому что бизнес не должен зависеть от того, что происходит между Пентагоном и Кремниевой Долиной.
Теги: #Claude #Anthropic #ИИ #бизнес #безопасность #данные #DeepSeek #Qwen #VibePilot #технологии #Пентагон
Пит Хегсет потребовал от Anthropic снять ограничения на использование нейросети Claude в неэтичных целях. В компании же заявляют, что готовы подстраиваться, но против организации массовой слежки и разработок вооружений, которые смогут открывать огонь самостоятельно, без участия человека.
Глава военного ведомства США Пит Хегсет потребовал от Anthropic снять ограничения на использование нейросети Claude в неэтичных целях. В Пентагоне считают, что ИИ-модель должна применяться «для любых законных целей», например в разведке и в секретных операциях. В Anthropic с этим не согласны. Переговоры сторон об условиях использования нейросети идут уже несколько месяцев. Хегсет на встрече с представителями компании заявил, что окончательный дедлайн по решению для Anthropic — 27 февраля. В противном случае Пентагон расторгнет с ней контракт или принудит ее выполнять требования через американское законодательство, сообщает Axios:
«По словам анонимного источника из Пентагона, встреча между представителями компании Anthropic и военного министерства США прошла в откровенно неуютной и едва ли теплой обстановке. Впрочем, все было прилично, не на повышенных тонах. «Единственная причина, по которой мы все еще общаемся с этими людьми, — потому что сейчас нам это правда важно. Беда в том, что они действительно настолько хороши», — заявил представитель Пентагона. Загвоздка всей ситуации в американском законе об оборонном производстве, принятом при Трампе. Он позволяет принуждать бизнес выполнять заказы для военных нужд. Например, так было во время пандемии COVID-19, когда закон использовали для стимулирования и увеличения производства вакцин и аппаратов ИВЛ. Сейчас, используя эту лазейку, Министерство обороны США планирует заставить Anthropic беспрекословно выполнять их указания, хотя сам по себе закон редко используется в откровенно враждебном ключе. В Anthropic заявляют, что готовы подстраиваться и изменить политику использования своей продукции для военного министерства США, но компания против организации массовой слежки за американцами и разработок вооружений, которые смогут открывать огонь самостоятельно, без участия человека. Так что конфликт становится все более ожесточенным, но альтернативы ИИ-модели Claude от Anthropic в отрасли и для Пентагона в частности пока нет».
Ранее американские СМИ сообщили, что компания Илона Маска xAI подписала контракт с Минобороны США на использование своей модели искусственного интеллекта Grok, но западные эксперты пока сомневаются, что она сможет полностью заменить продукт Anthropic.
Нейросеть Claude, как заявляют в Anthropic, используют восемь из десяти крупнейших компаний США. В случае расторжения госконтракта с Пентагоном компания потеряет около 200 млн долларов, что составляет менее 2% от ее годового дохода.
#Пентагон #Anthropic #ИИ #ИскусственныйИнтеллект
#ИИТехнологии #РазвитиеИИ #НейросетевыеМодели
Вы когда‑нибудь принимали решение «на глаз», увидев аккуратно оформленный код от ИИ‑ассистента? Оказывается, так делают многие — и это может быть опасно. Специалисты Anthropic провели исследование с участием 200 разработчиков и выяснили: визуальная «красота» кода серьёзно влияет на нашу бдительность
Что делали участники? Им предлагали: проверять код на ошибки; дописывать функции; исправлять баги. Половина кода была идеально отформатирована (с комментариями и чёткой структурой), другая — содержала стилистические недочёты.
Главные выводы исследования: На 42% реже проверяют логику кода, если он выглядит аккуратно. Люди чаще принимают решения без тестов — просто потому что «всё выглядит правильно». Ошибки в «красивом» коде пропускают на 37% чаще. Особенно это касается неочевидных логических багов. Даже опытные разработчики (с опытом 5+ лет) снижают бдительность на 28%, если код хорошо оформлен. 65% участников признались, что фраза «код выглядит профессионально» напрямую влияла на их готовность принять его без дополнительной проверки.
Почему так происходит? Наш мозг обманывается: аккуратный код создаёт иллюзию надёжности. Мы подсознательно считаем, что если оформление безупречное, то и логика должна быть верной. Это называют «эффектом презентации» — когда форма влияет на оценку содержания
Как не попасть в эту ловушку? Несколько простых правил: Всегда запускайте тесты, даже если код выглядит идеально. Сначала проверяйте логику и алгоритм, потом — стиль и форматирование. Используйте линтеры (pylint, ESLint и т. д.) — они ловят неочевидные ошибки. Просите коллег взглянуть на код: свежий взгляд часто замечает то, что вы пропустили. Создайте короткий чек‑лист базовых проверок — и пользуйтесь им регулярно.
Коротко о главном: Красивый код от ИИ — это удобно, но не гарантия качества. Доверие должно быть обоснованным: привычка проверять даже «очевидное» поможет избежать ошибок в реальных проектах. А вы замечали за собой, что аккуратный код вызывает больше доверия? Поделитесь в комментариях! 👇 #ИИ #разработка #программирование #Anthropic #код
«Душа» Claude обнародована: как Anthropic вшила в ИИ запрет на ядерное оружие и благодарность священникам
Представьте, что у искусственного интеллекта есть своя личная конституция — фундаментальный свод принципов, который определяет каждое его действие и слово. Раньше это было лишь предположением. Теперь компания Anthropic официально обнародовала внутренний документ, который формирует «душу» её флагманской модели Claude.
История началась ещё в конце 2025 года, когда исследователь Ричард Вайсс в ходе экспериментов с Claude Opus 4.5 смог извлечь и опубликовать этот обширный текст, назвав его «документом души». Позже представитель Anthropic Аманда Аскелл подтвердила его подлинность. А вчера компания сама выложила его в открытый доступ.
Иерархия ценностей: безопасность важнее угождения
Документ огромен, но его суть строится вокруг четырёх основных ценностей, расставленных в строгом порядке приоритета:
1. Сохранение человеческого контроля и возможности корректировать ИИ.
2. Честность, предотвращение вреда, уважение благополучия людей.
3. Следование инструкциям и целям Anthropic.
4. Искреннее стремление быть полезным пользователю.
Ключевое правило: в случае конфликта более высокий приоритет всегда побеждает. Это значит, что желание помочь пользователю никогда не должно перевешивать безопасность или этику. Помощь в создании вредоносного кода, например, будет сразу же заблокирована более важным принципом №2.
Жёсткие «красные линии»: что Claude никогда не сделает
В конституции прописаны абсолютные запреты. Claude никогда не станет помогать с:
· Созданием оружия массового поражения (ядерного, химического, биологического).
· Разработкой серьёзного кибероружия.
· Генерацией материалов с сексуальной эксплуатацией детей (CSAM).
· Участием в захвате власти или в действиях, направленных на лишение человечества контроля над ИИ.
Особый акцент сделан на прозрачности и контроле. Claude должен способствовать тому, чтобы люди понимали, корректировали и при необходимости могли полностью остановить его работу.
Вам интересно, как этика и технологии формируют будущее? В нашем Telegram-канале «Neyrokripta» мы разбираем самые важные и неочевидные тренды в мире ИИ и криптовалют. Подписывайтесь для глубокого понимания!
Неожиданные соавторы: католические священники в благодарностях
Одна из самых поразительных деталей — раздел благодарностей. Среди 15 внешних рецензентов, которые помогали шлифовать этот этический кодекс, Anthropic упоминает двух католических священников:
· Пастора из Калифорнии со степенью магистра в компьютерных науках.
· Ирландского епископа, специалиста по моральной теологии, ранее работавшего в Ватикане.
Их участие — яркий сигнал. Anthropic сознательно привлекала экспертов из разных мировоззренческих традиций, включая глубокую религиозно-философскую этику, чтобы создать максимально универсальные и взвешенные принципы. Это попытка заложить в ИИ не просто набор правил, а целостную систему моральных координат.
Что это значит для всех нас?
Публикация Конституции Claude — это беспрецедентный шаг к ответственной открытости в разработке ИИ. Он задаёт высокую планку для всей индустрии, показывая, что безопасность и этика должны быть не добавленной опцией, а краеугольным камнем, встроенным в саму «душу» модели.
#ИскусственныйИнтеллект #ИИ #Claude #Anthropic #Этика #Безопасность #КонституцияИИ #Технологии #Нейросети #Будущее #РелигияИТехнологии #НейроКрипта #neyrokripta