В позапрошлую пятницу Трамп приказал всем федеральным агентствам США прекратить использование Anthropic. Министр обороны Хегсет объявил компанию "риском для цепочки поставок" - статус, который обычно дают Huawei и другим компаниям из враждебных стран.
Что произошло?
Claude - модель от Anthropic - была единственной ИИ-системой, работающей на засекреченных сетях Пентагона. Контракт на $200 млн через Palantir. Claude использовали в реальной военной операции по захвату президента Венесуэлы Мадуро в январе.
Пентагон потребовал снять все ограничения: разрешить массовую слежку за гражданами и автономное оружие. CEO Anthropic Дарио Амодеи отказался. Сказал: "Угрозы не меняют нашу позицию. Мы не можем с чистой совестью выполнить их требование."
Пентагон пригрозил Defense Production Act - законом времён Корейской войны, который позволяет принудить компанию передать технологию.
Anthropic не сдался. Трамп отключил их. OpenAI тут же подписал контракт с Пентагоном.
Уважаю позицию Амодеи. Серьёзно. Человек потерял контракт на $200 млн и рискует потерять клиентскую базу, потому что отказался снимать ограничения на слежку и автономное оружие. Claude после этого стал #1 в App Store - люди поддержали.
Но теперь холодный вопрос для российского бизнеса.
Вы используете Claude для работы с клиентскими данными, финансовыми отчётами, бизнес-стратегиями, внутренними документами. Ваши промпты идут через компанию, которая:
Была интегрирована в засекреченную военную инфраструктуру США
Работала с Palantir (главный подрядчик спецслужб)
Участвовала в реальной военной операции
Находится под давлением правительства, которое угрожает принудить её по военному закону
Сегодня Амодеи отказался. Завтра - может не отказаться. Или его принудят. Или заменят на того, кто не откажется. OpenAI уже подписал контракт без ограничений.
И это не теория заговора. Это публичная информация из Washington Post, CNN, NPR, CBS News. Всё произошло на этой неделе.
Для американских пользователей это вопрос этики и политики. Для российского бизнеса - вопрос элементарной безопасности. Ваши данные на серверах компании, судьбу которой решает Пентагон.
При этом Claude в России и так работает через костыли: VPN + иностранная карта + риск блокировки аккаунта. То есть вы идёте на все эти сложности, чтобы отправлять свои бизнес-данные компании под давлением военного ведомства другой страны.
Альтернатива существует.
DeepSeek V3 - open source, код открыт, можно развернуть на собственном сервере в России. Никакой Пентагон не отключит, никакой Defense Production Act не применит.
Qwen от Alibaba - открытые модели, по бенчмаркам на уровне Claude. Работают из России без VPN.
Суверенитет данных - это не лозунг для конференций. После этой пятницы это конкретный, измеримый бизнес-риск. Компания, которой вы доверяете свои данные, может быть принуждена передать технологию военным. Или отключена президентским указом. Или объявлена "риском для нацбезопасности" за то, что отказалась выполнять требования.
Амодеи поступил достойно. Но строить бизнес на надежде, что следующий CEO тоже откажется - это не стратегия. Это рулетка.
P.S. VibePilot работает на DeepSeek и Qwen. Данные на российских серверах. Не потому что мы против Claude. А потому что бизнес не должен зависеть от того, что происходит между Пентагоном и Кремниевой Долиной.
Теги: #Claude #Anthropic #ИИ #бизнес #безопасность #данные #DeepSeek #Qwen #VibePilot #технологии #Пентагон
«Душа» Claude обнародована: как Anthropic вшила в ИИ запрет на ядерное оружие и благодарность священникам
Представьте, что у искусственного интеллекта есть своя личная конституция — фундаментальный свод принципов, который определяет каждое его действие и слово. Раньше это было лишь предположением. Теперь компания Anthropic официально обнародовала внутренний документ, который формирует «душу» её флагманской модели Claude.
История началась ещё в конце 2025 года, когда исследователь Ричард Вайсс в ходе экспериментов с Claude Opus 4.5 смог извлечь и опубликовать этот обширный текст, назвав его «документом души». Позже представитель Anthropic Аманда Аскелл подтвердила его подлинность. А вчера компания сама выложила его в открытый доступ.
Иерархия ценностей: безопасность важнее угождения
Документ огромен, но его суть строится вокруг четырёх основных ценностей, расставленных в строгом порядке приоритета:
1. Сохранение человеческого контроля и возможности корректировать ИИ.
2. Честность, предотвращение вреда, уважение благополучия людей.
3. Следование инструкциям и целям Anthropic.
4. Искреннее стремление быть полезным пользователю.
Ключевое правило: в случае конфликта более высокий приоритет всегда побеждает. Это значит, что желание помочь пользователю никогда не должно перевешивать безопасность или этику. Помощь в создании вредоносного кода, например, будет сразу же заблокирована более важным принципом №2.
Жёсткие «красные линии»: что Claude никогда не сделает
В конституции прописаны абсолютные запреты. Claude никогда не станет помогать с:
· Созданием оружия массового поражения (ядерного, химического, биологического).
· Разработкой серьёзного кибероружия.
· Генерацией материалов с сексуальной эксплуатацией детей (CSAM).
· Участием в захвате власти или в действиях, направленных на лишение человечества контроля над ИИ.
Особый акцент сделан на прозрачности и контроле. Claude должен способствовать тому, чтобы люди понимали, корректировали и при необходимости могли полностью остановить его работу.
Вам интересно, как этика и технологии формируют будущее? В нашем Telegram-канале «Neyrokripta» мы разбираем самые важные и неочевидные тренды в мире ИИ и криптовалют. Подписывайтесь для глубокого понимания!
Неожиданные соавторы: католические священники в благодарностях
Одна из самых поразительных деталей — раздел благодарностей. Среди 15 внешних рецензентов, которые помогали шлифовать этот этический кодекс, Anthropic упоминает двух католических священников:
· Пастора из Калифорнии со степенью магистра в компьютерных науках.
· Ирландского епископа, специалиста по моральной теологии, ранее работавшего в Ватикане.
Их участие — яркий сигнал. Anthropic сознательно привлекала экспертов из разных мировоззренческих традиций, включая глубокую религиозно-философскую этику, чтобы создать максимально универсальные и взвешенные принципы. Это попытка заложить в ИИ не просто набор правил, а целостную систему моральных координат.
Что это значит для всех нас?
Публикация Конституции Claude — это беспрецедентный шаг к ответственной открытости в разработке ИИ. Он задаёт высокую планку для всей индустрии, показывая, что безопасность и этика должны быть не добавленной опцией, а краеугольным камнем, встроенным в саму «душу» модели.
#ИскусственныйИнтеллект #ИИ #Claude #Anthropic #Этика #Безопасность #КонституцияИИ #Технологии #Нейросети #Будущее #РелигияИТехнологии #НейроКрипта #neyrokripta