#anthropic
20 публикаций
Компания Anthropic, один из лидеров в сфере искусственного интеллекта, вплотную приблизилась к историческому рубежу: её оценка перед IPO достигла $1 триллиона. Это впечатляющий рост на 733% всего за несколько месяцев с октября 2025 года. Такой скачок стоимости отражает огромный интерес инвесторов к технологиям ИИ и подтверждает статус Anthropic как одного из самых перспективных игроков на рынке.
#anthropic #ipo #preipo #искусственныйинтеллект
Как работает схема
Инженер из компании Anthropic (той самой, что создала конкурента ChatGPT — нейросеть Claude) написал торгового бота для платформы Polymarket.
Анализ данных: Система сканирует рынок, анализируя 86 миллионов сделок. За несколько минут бот «прогоняет» через алгоритм 14 тысяч кошельков, отсеивая случайный шум и находя тех, кто стабильно выигрывает .
Копирование китов: Бот находит кошельки крупных игроков («китов») с высоким процентом побед. Распознав движение, он копирует его.
Скорость: Система совершает всего около 10 сделок в день, но выходит из позиции на долю секунды раньше «кита», забирая прибыль.
Почему это выстрелило
Ключевое преимущество системы в том, что она не гадает на кофейной гуще, а жестко анализирует чужие успешные действия в реальном времени, исключая человеческий фактор и эмоции.
Мнение
Инженеры Anthropic знают свою нейросеть изнутри и смогли заставить её делать то, до чего другие просто не додумались. Пока толпа пытается уговорить ИИ предсказать погоду или курс биткоина, этот парень запрограммировал его на банальное копирование удачи.
#Polymarket #ArtificialIntelligence #trading #bot #Anthropic #Claude #новости
Что случилось
Неизвестная группа хакеров получила доступ к закрытой ИИ-модели Anthropic под названием Claude Mythos Preview . Эту нейросеть компания настолько боялась выпускать в публичный доступ, что даже не анонсировала её широко. Официально Mythos передали лишь 40 крупнейшим технологическим и финансовым гигантам — от Amazon и Apple до JPMorgan Chase .
Почему это опасно
Anthropic создала не просто умную «говорилку». По заверению компании, Mythos способна самостоятельно находить и эксплуатировать уязвимости «в каждой основной операционной системе и каждом популярном браузере» . Она успешно прошла тест Британского института безопасности ИИ (AISI), симулировав кибератаку из 32 шагов, которая обычно занимает у специалистов по кибербезопасности несколько дней .
Как её украли
Злоумышленники действовали из частного Discord-канала, который специализируется на поиске ещё не анонсированных нейросетей на GitHub . Они использовали сочетание утечек данных из стартапа Mercor, доступ сотрудника стороннего подрядчика Anthropic и стандартные инструменты «цифровой разведки» . Интересно, что доступ получили в тот же день, когда Anthropic объявила о запуске программы Project Glasswing
Что говорят хакеры и разработчики
Взломщики утверждают, что не собираются чинить вред, а просто «играются с новой технологией» . Они предоставили журналистам Bloomberg скриншоты и даже живую демонстрацию работы модели .
В Anthropic официально подтвердили факт расследования: «Мы изучаем сообщение о несанкционированном доступе к Claude Mythos Preview через среду одного из наших сторонних поставщиков» . Компания подчёркивает, что взлом не затронул её внутренние системы
Мнение
Скандал показывает, насколько хрупка даже самая продуманная система безопасности. Самая опасная нейросеть, которую Anthropic спрятала под семью замками, утекла в открытый доступ в первый же день тестирования.
#Anthropic #ИИ #Claude #Mythos #кибербезопасность #взлом #новости
🔷Венчурные инвесторы предлагают разработчику искусственного интеллекта Anthropic провести новый раунд финансирования при оценке $800 млрд это вдвое больше, чем в предыдущем раунде ($380 млрд). Такой интерес связан с быстрым ростом выручки компании и высоким спросом на её акции на вторичном рынке.
🔷Ключевые факты
🔹Прогнозируемая годовая выручка Anthropic достигла $30 млрд,против $9 млрд в конце 2024 года.
🔹Более 1000 корпоративных клиентов тратят на ИИ-инструменты компании свыше $1 млн в год.
🔹На вторичном рынке оценка Anthropic уже составляет $688 млрд.
🔹Если компания примет предложение, её оценка приблизится к главному конкуренту OpenAI ($852 млрд).
🔹Выход на биржу IPO Anthropic может состояться уже в октябре 2026 года.
Успехи Anthropic заставляют инвесторов пересматривать оценку всего сектора ИИ и конкурирующих компаний.
В 2026 году рынок искусственного интеллекта переживает настоящий бум, и одним из самых ожидаемых событий становятся IPO ведущих ИИ-компаний. Среди них Anthropic и Databricks, чьи размещения могут стать крупнейшими технологическими дебютами десятилетия. Рассмотрим, кто выходит на биржу, как анализировать такие инвестиции и на что обратить внимание, чтобы заработать на IPO.
1. Кто выходит на биржу?
Anthropic
Anthropic, разработчик языковых моделей Claude и один из главных конкурентов OpenAI, официально подтвердил планы провести IPO в 2026 году. Компания ориентируется на оценку капитализации около $100 млрд, что делает её размещение одним из самых дорогих в истории технологического сектора. Anthropic активно поддерживается такими гигантами, как Amazon и Google, а её решения востребованы в корпоративном и государственном секторах благодаря акценту на безопасности и этике ИИ. Успех IPO Anthropic может стать сигналом для других стартапов и спровоцировать новую волну размещений в секторе ИИ.
Databricks
Databricks ещё один крупный игрок, который, по прогнозам аналитиков, может выйти на биржу в ближайшие годы. Компания специализируется на аналитике больших данных и машинном обучении, её решения востребованы среди крупнейших мировых корпораций. Ожидается, что IPO Databricks также привлечёт значительный интерес инвесторов.
2. Как анализировать мультипликаторы
При оценке ИИ-компаний перед IPO важно учитывать не только классические финансовые показатели (P/E, P/S), но и специфику сектора:
Темпы роста выручки: для ИИ-стартапов этот показатель часто важнее текущей прибыли.
Объём инвестиций и поддержка: наличие крупных стратегических инвесторов (Amazon, Google) знак доверия и устойчивости.
Затраты на R&D и вычислительные мощности: чем больше компания вкладывает в развитие, тем выше её потенциал.
Оценка по сравнению с конкурентами: если мультипликаторы значительно выше средних по рынку, это может говорить о переоценке.
Важно помнить: сектор ИИ отличается высокой волатильностью и неопределённостью, поэтому классические методы анализа нужно дополнять отраслевой экспертизой.
3. Советы по участию в IPO
Изучайте проспект эмиссии: обращайте внимание на бизнес-модель, риски и стратегию развития.
Диверсифицируйте портфель: не вкладывайте все средства в одну компанию, даже если она кажется перспективной.
Оценивайте долгосрочные перспективы: ИИ-компании часто выходят на биржу с убытками, но с огромным потенциалом роста.
Следите за аллокацией: при высоком спросе ваша доля в размещении может быть небольшой.
Будьте готовы к волатильности: после IPO акции могут сильно колебаться, не поддавайтесь панике и не принимайте импульсивных решений.
Вывод:
IPO ИИ-компаний это уникальная возможность для инвесторов заработать на технологической революции. Однако успех зависит от тщательного анализа, понимания специфики сектора и взвешенного подхода к рискам. Следите за новостями о Anthropic, Databricks и других лидерах рынка именно их размещения могут определить будущее инвестиций в искусственный интеллект.
Что случилось
Глава Минфина США Скотт Бессент и председатель ФРС Джером Пауэлл в экстренном порядке созвали руководителей крупнейших банков страны, включая Citigroup, Morgan Stanley, Bank of America и Goldman Sachs . Причина — новая модель искусственного интеллекта Mythos от компании Anthropic . Регуляторы боятся, что она может уничтожить банковскую систему.
Почему все в панике
Anthropic — та же команда, что создала чат-бота Claude, конкурента ChatGPT. Но Mythos — не болталка, а оружие. По заявлению самой компании, модель способна «идентифицировать и использовать уязвимости в любых операционных системах и веб-браузерах». Проще говоря, достаточно дать ей команду, и она найдет дыру в любой защите.
Разработчики уже подтвердили, что Mythos обладает как «наступательными, так и оборонительными кибервозможностями»
Что это значит для банков
Финансовая система США держится на цифровых системах. Если ИИ научится взламывать их одной командой, это конец. Переводы, биржевые торги, вклады — всё может быть парализовано или украдено за секунды. Именно поэтому главы финансовой и денежной системы США лично проверяют, готовы ли банки к защите
Что делает Anthropic
Создатели Mythos сами в ужасе от своего детища. Они выпустили модель в ограниченный доступ — всего 40 компаниям, включая Amazon, Apple и JPMorgan . Проект получил кодовое название «Glasswing». Цель — проверить и укрепить самую критическую инфраструктуру, прежде чем злоумышленники получат подобные технологии.
Скандал с Пентагоном
Параллельно Anthropic судится с Пентагоном. Военные внесли компанию в список «угроз для цепочек поставок», а Anthropic отказалась предоставлять властям полный доступ к своим наработкам
Мнение
Если раньше банки боялись хакеров-одиночек, то теперь им угрожает ИИ, который думает быстрее любой команды специалистов. ФРС и Минфин впервые за долгое время собрали глав крупнейших банков не из-за финансового кризиса, а из-за программного обеспечения. Эпоха, когда код становится опаснее ядерной бомбы, наступила.
#ИИ #кибербезопасность #банки #ФРС #Anthropic #финансы #новости
Claude пошёл на войну. Как AI меняет разведку и чем это грозит инвесторам The Wall Street Journal в апреле 2026 года раскрыл детали, которые раньше оставались за грифом «секретно». Claude AI от Anthropic использовался для: · разведывательных оценок, · идентификации целей, · боевых симуляций в реальных военных операциях. Это не тестовый полигон. Это прямое применение генеративного ИИ в самых чувствительных сферах национальной безопасности. Что это значит для мира? Факт подтверждает: AI уже формирует «наиболее серьёзные события в мире» прямо сейчас. Не через пять лет. Не после регуляторных одобрений. А сегодня. Военные аналитики получают возможность просчитывать сотни сценариев за минуты. Claude, обученный на огромных массивах данных, способен находить паттерны, которые человек может не заметить. Идентификация целей — это уже не просто картинка со спутника, а комплексный анализ тысяч параметров в реальном времени. Главный риск — не этический, а регуляторный Публичное раскрытие того, что AI используется в военных целях, ускорит законодательство об AI-governance. И это произойдёт до IPO Anthropic. Какие сценарии возможны? 1. Экспортные ограничения — правительства могут запретить передачу определённых AI-моделей за рубеж, что ударит по международной экспансии Anthropic. 2. Обязательное лицензирование — для военных применений потребуются отдельные разрешения, а их получение займёт годы. 3. Антимонопольные расследования — если одна компания получает доступ к военным контрактам, её конкуренты начнут лоббировать ограничения. 4. Санкционные риски — в случае конфликта интересов использование AI в чужих военных операциях может привести к блокировкам. Что это значит для частного инвестора? 🔹 Нелинейный политический риск. Обычно мы оцениваем компании по финансовым отчётам. Но здесь любой законопроект может обрушить оценку Anthropic на 30-50% за одну ночь. 🔹 Выход на биржу под дамокловым мечом регуляторки. Если IPO Anthropic состоится в октябре 2026, а за месяц до этого Конгресс внесёт жёсткий AI-закон — цена размещения может оказаться «последней хорошей ценой» перед долгим падением. 🔹 Диверсификация становится критической. Ставка на одного «победителя» в AI-гонке теперь несёт не только рыночные, но и геополитические риски. Противоположный взгляд Некоторые аналитики считают, что военные контракты, наоборот, укрепят позиции Anthropic. Правительства будут заинтересованы в стабильности поставщика критически важных технологий, а значит — могут лоббировать мягкое регулирование. Плюс, военные бюджеты огромны, и доступ к ним — это многомиллиардная выручка. Пока неизвестно, какой сценарий победит. Но инвестор обязан учитывать оба. Итог Claude уже на войне. А инвесторы узнают об этом из WSJ. Прозрачность — это хорошо. Но она же запускает политический механизм, который может раздавить компанию быстрее, чем любой рыночный кризис. Следите за законодательством. И помните: в AI сейчас деньги не менее взрывоопасны, чем в военных технологиях 1940-х. #Anthropic #Claude #AIвоенноеприменение #регуляторныериски #IPO2026 #политическийриск #WSJ #инвестиции --- Уважаемые подписчики! Если эта статья помогла вам увидеть неочевидные риски, которые обычно остаются за кадром финансовой аналитики — поставьте, пожалуйста, «Респект» (👍). Ваша поддержка позволяет мне глубже копать в таких темах и предупреждать вас о «чёрных лебедях» до того, как они прилетят. Спасибо!
Anthropic: случайный слив кода и $2 трлн на IPO раньше OpenAI Третья новость за сегодня — и, пожалуй, самая взрывная. 1. Утечка, которая может стать стратегическим преимуществом Anthropic случайно опубликовал 512 000 строк исходного кода Claude, включая модель Mythos и агента «Kairos». Обычно такое событие называют катастрофой. Но в мире ИИ, где скорость внедрения важнее патентов, «случайность» может оказаться гениальным маркетингом. Разработчики по всему миру получили возможность изучить внутренности топовой модели — и это укрепит экосистему Anthropic быстрее любых официальных SDK. 2. IPO в октябре 2026 с оценкой $2 трлн Одновременно банкиры и юристы, работающие над размещением, ожидают, что Anthropic выйдет на биржу раньше OpenAI. Причина — более короткий путь к прибыльности. Цифры, которые поражают: · OpenAI потратит $14 млрд в 2026 году, прежде чем выйти в плюс. · Anthropic — $22 млрд до безубыточности. · А вот капитальные затраты OpenAI до выхода на операционную прибыль оцениваются в $200+ млрд против значительно меньших у Anthropic. Целевая дата — октябрь 2026, потенциальная оценка — $2 трлн. 3. Morningstar: Anthropic — лучший бизнес из трёх Аналитики Morningstar уже вынесли вердикт: · Anthropic — лучший бизнес по фундаментальным показателям среди трёх гигантов (OpenAI, Anthropic, SpaceX). · OpenAI — худший, несмотря на самую высокую текущую оценку ($850 млрд). Что это значит для инвестора? 🔹 Утечка кода — не повод для паники. Наоборот, она может ускорить принятие стандартов Anthropic как индустриального базиса. 🔹 Более короткий путь к прибыльности + более низкие CAPEX = меньше риска просадки после IPO. Anthropic выглядит как «тихая лошадка», которая может обогнать разрекламированного соседа. 🔹 Если оценка в $2 трлн к октябрю 2026 подтвердится, это будет крупнейшее технологическое IPO в истории (пока не вышли SpaceX и OpenAI). Но важно помнить: даже при таком раскладе аналитики Constellation Research предупреждают — два из пяти главных дебютантов упадут ниже цены размещения через 3 месяца. Anthropic в этом списке — не самый очевидный кандидат на падение. Итог: Следите за October 2026. И за репозиториями Anthropic — вдруг ещё что-то «случайно» утечёт. #Anthropic #IPO2026 #утечкакода #Claude #Morningstar #инвестиции #аналитика --- Уважаемые подписчики! Если этот разбор помог вам структурировать поток новостей и увидеть скрытые возможности — поставьте, пожалуйста, «Респект» (👍). Ваша поддержка позволяет мне быстрее реагировать на такие инсайды и делиться ими с вами.
Крамер бьёт тревогу. Три мега-IPO могут перегрузить рынок акций Новость от 5 апреля (буквально сегодня) от CNBC: Джим Крамер предупреждает — выход SpaceX ($1.75 трлн), OpenAI ($840 млрд) и Anthropic ($380+ млрд) может создать слишком много новых акций для рынка. Цитата: «Мы на грани исчерпания денег». В чём проблема? Не только в гигантских объёмах размещения. Главный системный риск — возможное ускоренное включение этих компаний в индексы S&P 500 и FTSE Russell. Сейчас действуют стандартные правила: компания должна публично торговаться не менее 12 месяцев, прежде чем её добавят в индекс. Но S&P Global и FTSE Russell уже рассматривают «fast-track» правила для таких мега-дебютантов. Если все три войдут в S&P 500 в течение нескольких дней после IPO, пассивные фонды (а под управлением $12 трлн) станут принудительными покупателями. Это означает: 1. Искусственный взлёт цен сразу после листинга — за счёт денег фондов, а не из-за реального спроса. 2. Затем неизбежная коррекция, когда пассивный импульс иссякнет. 3. Перекос портфелей: индексные фонды будут вынуждены продавать другие бумаги, чтобы купить этих гигантов, что обрушит многие «обычные» акции. Что это значит для частного инвестора? · Не гонитесь за IPO в первые дни, особенно если ожидается fast-track. Вы рискуете купить на пике принудительного спроса. · Будьте готовы к повышенной волатильности всего рынка, когда три такие махины одновременно войдут в индексы. · Обратите внимание на компании, которые могут быть «вытеснены» из индексов — иногда это создаёт хорошие точки входа. Крамер, при всей его противоречивости, прав в одном: концентрация риска достигла беспрецедентного уровня. Три $200+ млрд IPO за короткий период — это стресс-тест для всей рыночной инфраструктуры. #IPO2026 #SpaceX #OpenAI #Anthropic #Крамер #рыночныйриск #индексы #пассивныефонды #инвестиции --- Уважаемые читатели! Если этот разбор помог вам лучше понять скрытые риски предстоящей IPO-гонки — поставьте, пожалуйста, «Респект» (👍). Это мотивирует меня глубже копать такие системные угрозы и делиться с вами оперативными сигналами. Спасибо, что следите за рынком вместе!
OpenAI теряет вторичку. Anthropic тихо перехватывает инициативу Пока все ждут рекордного IPO OpenAI в 2026 году, на вторичном рынке происходит нечто тревожное. По данным Bloomberg (1 апреля 2026), несколько крупных институциональных инвесторов пытаются продать $600 млн акций OpenAI — и не могут найти покупателей. Это первый звонок, который сложно игнорировать. Одновременно Anthropic демонстрирует классическую историю «тихого убийцы»: · Доля Anthropic в корпоративном (enterprise) API-рынке выросла с 12% в 2023 до 32% в середине 2025 года. · По данным Ramp Economics Lab, доля Anthropic в совокупных расходах на OpenAI+Anthropic увеличилась с 10% в начале 2025 до 65% к февралю 2026. · Флагманский продукт Claude Code генерирует $2.5 млрд ARR и занимает 54% рынка AI-ассистированного программирования. Почему это важно для инвесторов? 1. Переток спроса. Рынок явно голосует кошельком за более предсказуемую и безопасную для бизнеса модель Anthropic, а не за «хайпового гиганта» OpenAI. 2. Вторичный рынок — индикатор. Если крупные игроки не могут выйти из OpenAI даже с дисконтом — это сигнал о переоцененности и падающем доверии перед IPO. 3. IPO-гонка 2026 может преподнести сюрприз. OpenAI рискует стать одним из двух главных дебютантов, которые просядут ниже цены размещения через 3 месяца, как предупреждают аналитики Constellation Research. Что делать? · Не ведитесь на громкие названия. Высокая оценка — не синоним надёжного актива. · Следите за вторичным рынком и реальной долей в enterprise-сегменте. · Присмотритесь к Anthropic: если компания выйдет на биржу, её старт может оказаться гораздо более устойчивым, чем у разрекламированного соседа. #IPO2026 #OpenAI #Anthropic #вторичныйрынок #инвестиции #ловушкадляинвесторов #аналитика --- Уважаемые подписчики! Если эта статья была для вас полезной — поставьте, пожалуйста, «Респект» (👍). Это поможет мне готовить для вас ещё больше качественной аналитики и вовремя замечать такие скрытые сигналы рынка. Спасибо, что вы со мной!
IPO гонка 2026: главные дебюты в истории и ловушка для инвесторов 2026 год обещает стать годом, который перепишет учебники по IPO. OpenAI, Anthropic, SpaceX, Databricks, Stripe — эти названия звучат как мечта любого портфельного менеджера. Но аналитики Constellation Research предупреждают: «2026 станет одним из крупнейших IPO-годов в истории — и два из пяти главных дебютантов упадут ниже цены размещения через 3 месяца». Золотая лихорадка начинается. Но золото часто оказывается пиритом. Кто и когда выходит? · OpenAI — вероятная подача S-1 к концу 2026 года. Годовой регулярный доход (ARR) — $25 млрд. Это больше, чем у многих публичных SaaS-компаний. Оценка на последнем раунде — $850 млрд (см. первый сигнал). IPO может стать крупнейшим в истории технологий. · Anthropic — ARR $19 млрд. Идёт следом. Оценка около $60–80 млрд по слухам. · SpaceX — раскрыл план IPO на вторую половину 2026 года при оценке $800 млрд. Илон Маск наконец выводит на биржу свой главный актив. · Databricks и Stripe — давно созрели, тоже в очереди. Оба с ARR за $2–3 млрд и оценками $40–60 млрд. Суммарный объём размещения может превысить $100 млрд. Это будет сопоставимо с IPO-бумом 2000 года (конец доткома) и 2021 года (пик pandemic SaaS). Почему сейчас? Две причины. Первая — рынок созрел. Компании достигли масштаба, при котором приватный капитал уже не может обеспечить ликвидность сотрудникам и ранним инвесторам. Вторая — окно открыто. После двух лет затишья (2023–2025) аппетит к качественным технологическим IPO вернулся. Инвесторы устали от консервативных активов и хотят роста. Прогноз Constellation: два из пяти упадут Самый важный абзац для инвестора на Финбазаре: «два из пяти главных дебютантов упадут ниже цены размещения через 3 месяца». Кто попадёт в эту ловушку? Вероятно, те, чьи оценки были раздуты на приватных рынках до безумия. OpenAI при $850 млрд — это уже размер Berkshire Hathaway. Чтобы оправдать такую капитализацию, нужен рост выручки на 50%+ год к году в течение пяти лет. Возможно, так и будет. Но если замедление наступит раньше — акции окажутся под водой. SpaceX — другая история. Там бизнес более предсказуемый (запуски, Starlink, Starship), но оценка $800 млрд тоже не подарок. Databricks и Stripe — более консервативны, но тоже не дешёвы. Что делать инвестору: возможность и ловушка Возможность: первые дни после IPO часто дают краткосрочный спекулятивный импульс. Если вы умеете играть на волатильности — можно заработать. Но это казино. Ловушка: многие ритейл-инвесторы купят на эмоциях «акции мечты» по цене размещения или выше, а через квартал увидят -30%. Причина — переоценённость и выход ранних инвесторов (lock-up expiry). Классическая история: Snap, Uber, Lyft, Robinhood. Стратегия: если вы долгосрочный инвестор — не торопитесь. Лучше подождать 3–6 месяцев после IPO, когда ажиотаж спадёт, а первые квартальные отчёты покажут реальное здоровье бизнеса. Многие великие компании (Meta, Google) выходили дорого, но потом давали точки входа на 30–40% ниже цены размещения в течение первого года. Главный вывод 2026 будет историческим годом. Вы увидите заголовки «Крупнейшее IPO века» и захотите купить всё. Помните: из пяти гигантов двое разочаруют рынок в краткосрочной перспективе. Это не делает их плохими компаниями. Это делает их дорогими покупками в неподходящее время. Ваша задача — отличить шум от сигнала. Изучайте S-1, смотрите на unit-экономику, темпы роста и, главное, на оценку относительно будущих денежных потоков. И не бойтесь пропустить первый день. Лучшие сделки часто заключаются через полгода, когда пыль оседает. #IPO2026 #OpenAI #SpaceX #Anthropic #Databricks #Stripe #ConstellationResearch #инвестиции #Финбазар Статья помогла подготовиться к IPO-марафону 2026? Поставьте плюс и повысьте репутацию — мы будем разбирать каждое крупное размещение в моменте и помогать не попадать в ловушки.
MCP под Linux Foundation: агентный AI получил свой HTTP Вводная В декабре 2025 года произошло событие, которое сейчас, в апреле 2026, начинает приносить плоды: под эгидой Linux Foundation сформирован Agentic AI Foundation. В его создании участвовали конкуренты — Anthropic (отдавшая протокол MCP), OpenAI (внесшая AGENTS.md) и Block (фреймворк goose). Когда три главные лаборатории, которые обычно воюют за рынок, добровольно передают ключевую инфраструктуру нейтральному управляющему органу — это означает только одно: стандарт победил. Что такое MCP и почему это важно MCP (Model Context Protocol) — это протокол, который позволяет AI-агентам взаимодействовать с внешними инструментами, базами данных, файловыми системами и API единым образом. До MCP каждый разработчик писал свои «костыли». Теперь есть универсальный язык. Цифры говорят сами за себя: в марте 2026 года MCP пересёк 97 миллионов установок. Каждый крупный AI-провайдер (OpenAI, Anthropic, Google, Cohere, Mistral) теперь поставляет MCP-совместимый инструментарий. Аналогия для финансового сообщества Представьте, что в ранние дни интернета каждый браузер говорил на своём языке. Появился HTTP — и веб взлетел. MCP — это HTTP для AI-агентов. Он стандартизирует то, как агенты получают контекст, вызывают функции и обмениваются данными. Для бизнеса это означает: · Снижение vendor lock-in. Вы можете сменить провайдера модели, не переписывая всю агентную инфраструктуру. · Ускорение разработки. Стартапам не нужно изобретать протокол — берут MCP и фокусируются на ценности. · Предсказуемость инвестиций. Стандарт, управляемый Linux Foundation, не исчезнет завтра из-за каприза CEO. Почему конкуренты отдали свои наработки Anthropic могла бы держать MCP как собственное преимущество. OpenAI — закрыть AGENTS.md. Block — монетизировать goose. Но все они поняли: экосистема выигрывает от стандарта, а стандарт должен быть нейтральным. Это исторический прецедент. В AI, где обычно побеждает «кто больше сожжёт GPU», вдруг воцарилась кооперация на инфраструктурном уровне. Для инвестора это сигнал зрелости рынка: от дикого Запада к цивилизованному протоколу. Что это значит для вашего бизнеса уже сейчас · Если вы строите AI-агентов для финансовой автоматизации (сверка счетов, прогнозирование cash flow, анализ рисков) — используйте MCP как стандарт. Ваши агенты будут работать с любыми инструментами. · Если вы выбираете AI-платформу — отдавайте предпочтение тем, кто поддерживает MCP из коробки. Это сэкономит миллионы на интеграциях. · Если вы инвестор — смотрите на стартапы, которые строят MCP-серверы для вертикальных задач (финансы, логистика, юриспруденция). Это будут «розетки», к которым подключатся все агенты. Заключение 97 миллионов установок MCP — это не просто число. Это доказательство того, что агентный AI перешёл от хайпа к стандартизированной инфраструктуре. Как HTTP сделал веб доступным для всех, так MCP сделает AI-агентов повсеместными. Для Финбазара это означает одно: инвестиции в AI-инструменты становятся предсказуемыми, а риски интеграции — управляемыми. Стандарт победил, и это хорошо для всех, кроме тех, кто делал ставку на проприетарные протоколы. --- #MCP #LinuxFoundation #AgenticAI #Anthropic #OpenAI #Block #стандартизация #AIагенты #инфраструктура #Финбазар #протокол #инвестиции --- Коллеги, если разбор победы открытого стандарта MCP помог вам понять, куда движется рынок AI-агентов, и как это использовать в ваших проектах — поддержите автора. Поставьте «Респект» 👍 или повысьте репутацию (кнопка «+» рядом с моим именем). Ваша обратная связь позволяет мне глубже анализировать инфраструктурные сдвиги. Спасибо, что вы с Финбазаром!
Anthropic закрывает Claude для сторонних инструментов. Тезис «$200 в месяц вместо команды» получает жёсткую проверку Вводная. 4 апреля, в 12:00 по тихоокеанскому времени вступают в силу новые правила Anthropic: Claude subscriptions больше не покрывают использование в сторонних инструментах, включая популярный OpenClaw. Официальная причина — управление мощностями. Неофициальная — бизнес растёт слишком быстро, и инфраструктура не успевает. Для аудитории Финбазара это событие — прямая иллюстрация тезиса «$200 в месяц вместо команды». Многие компании уже строили автоматизированные рабочие процессы, подключая Claude через API сторонних агрегаторов. Теперь этот кабель перерезан. Что именно произошло Anthropic, чья годовая выручка приближается к $19 млрд, столкнулась с классической проблемой гиперроста: спрос превышает вычислительные мощности. Чтобы сохранить качество обслуживания для прямых подписчиков и корпоративных клиентов, компания закрывает доступ к модели через неофициальные прослойки. Под удар попадают: · OpenClaw и аналогичные интеграторы. · Пользователи alfred_v2, которые использовали Claude для автоматизации задач. · Разработчики, запускавшие Claude Code через третьи инструменты. Для них это операционный сигнал прямо сегодня — их рабочие процессы могут остановиться или потребовать срочного перехода на прямое API (по другим тарифам). **Тезис «$200 в месяц вместо команды» под угрозой** Одним из главных аргументов в пользу внедрения AI-ассистентов была экономия: подписка за $200 заменяет целого младшего аналитика или ассистента. Anthropic своим решением показывает обратную сторону медали: инфраструктурные ограничения и монополизация доступа. Если вы построили бизнес-процесс на дешёвом доступе к Claude через сторонние надстройки, сегодня вы получаете уведомление: «Так больше нельзя». Это заставит многих пересчитать TCO (совокупную стоимость владения) — прямое API может оказаться дороже, а альтернативы (например, GPT-5.4) — не такими удобными. Что делать финансовому директору и инвестору 1. Проверить зависимость от Claude через третьи инструменты. Если ваша команда использует такие связки — срочно искать замену или переходить на официальный API. 2. Заложить в бюджет рост затрат на AI. Ожидайте, что другие провайдеры (OpenAI, Google) могут последовать примеру Anthropic — ограничить «серый» доступ и поднять цены. 3. Рассматривать вертикальные AI-решения вместо универсальных ассистентов. Специализированные инструменты (например, для финансового анализа) могут оказаться стабильнее. 4. Инвестировать в собственные small models (LLaMA, Mistral) для критических процессов — это снижает зависимость от облачных гигантов. Заключение Решение Anthropic — не техническая деталь, а маркер зрелости рынка. Когда поставщик начинает ограничивать доступ, это значит, что спрос превысил предложение, а «бесплатный сыр» кончился. Тезис «$200 вместо команды» работал в условиях дешёвых вычислительных ресурсов и открытых интеграций. Сегодня он превращается в вопрос: «А сколько на самом деле стоит стабильный AI-сотрудник?» Для финансового директора это сигнал пересмотреть бюджет на автоматизацию и закладывать риски ограничений доступа. Для инвестора — повод присмотреться к компаниям, которые строят собственные AI-мощности, а не арендуют их. --- #Anthropic #Claude #AI #управлениемощностями #OpenClaw #alfred_v2 #ClaudeCode #финансы #автоматизация #Финбазар #риски #инвестиции --- Коллеги, если эта статья помогла вам сориентироваться в изменениях на AI-рынке и вовремя заметить риски для ваших процессов — поддержите автора. Нажмите «Респект» 👍 или повысьте репутацию (кнопка «+» рядом с моим именем). Ваши оценки мотивируют глубже разбирать операционные сигналы для финансового сообщества. Спасибо, что вы с Финбазаром!
OpenAI готовится к IPO при выручке $25 млрд. AI-сектор стал самым быстрорастущим в истории Вводная Цифры, которые ещё год назад казались фантастикой, сегодня стали реальностью. OpenAI превысил **$25 млрд годовой выручки** (это более $2 млрд в месяц) и готовится к IPO — потенциально уже в конце 2026 года. Конкурент Anthropic приближается к $19 млрд**. А раунд OpenAI оценил компанию в **$852 млрд при сборе $122 млрд. Рынок advanced AI-моделей официально стал fastest-growing sector в истории технологической индустрии — обгоняя ранний рост интернета, мобильных телефонов и облачных вычислений. Главные цифры, которые нужно знать инвестору · Выручка OpenAI: $25 млрд (годовая) / $2 млрд (месячная) · Выручка Anthropic: ~$19 млрд · Оценка OpenAI в последнем раунде: $852 млрд · Привлечено: $122 млрд · Планируемое IPO: конец 2026 года · Дополнительный сигнал: SpaceX приобрела xAI — консолидация рынка нарастает. Для понимания масштаба: $25 млрд — это уровень выручки, которого крупнейшие софтверные компании добивались за десятилетия. OpenAI достигла этого за пару лет. Почему это важно для финансового сообщества Финбазар традиционно следит за точками входа в новые мегатренды. IPO OpenAI станет, вероятно, крупнейшим размещением в секторе AI и задаст «светлую оценку» (аналог multiples) для всей индустрии. Инвесторы, которые пропустили ранние раунды, получат шанс войти на бирже — но, скорее всего, с премией. Однако есть и системный эффект: когда лидеры рынка (OpenAI, Anthropic) показывают такие темпы роста, это перезагружает оценки всех игроков — от Nvidia до стартапов на стадии B и C. Венчурные фонды уже пересматривают свои портфели в сторону AI-first компаний. Что происходит на рынке M&A Новость о покупке xAI компанией SpaceX — важный маркер. Илон Маск объединяет свои AI-активы с космическим и телекоммуникационным бизнесом. Это сигнал: AI перестаёт быть отдельной «игрушкой» и становится ядерным двигателем для других индустрий. Финансовым директорам и инвесторам стоит ожидать волны слияний и поглощений, где AI-стартапы будут приобретаться за десятки миллиардов. Что делать инвестору уже сейчас 1. Готовить ликвидность к концу 2026 года — IPO OpenAI может стать самым горячим размещением десятилетия. 2. Анализировать мультипликаторы конкурентов (Anthropic, Cohere, Mistral). Их оценки потянутся за лидером. 3. Обратить внимание на «железо» — Nvidia, AMD, производители кастомных чипов выигрывают от гонки AI-моделей. 4. Не игнорировать риски — регуляторное давление, замедление темпов роста после насыщения корпоративного рынка, возможный «пузырь» переоценки. Заключение $25 млрд выручки и $852 млрд оценки OpenAI — это не просто новость. Это объявление о том, что AI-сектор стал самым быстрорастущим в истории. Для сравнения: в первые годы после IPO Google его выручка была на порядки меньше. Инвесторам, которые поймут этот тренд сегодня, открывается окно возможностей. Те, кто будет ждать «подтверждений», рискуют войти на пике. --- #OpenAI #IPO2026 #искусственныйинтеллект #выручка #инвестиции #Anthropic #SpaceX #xAI #быстрорастущийсектор #Финбазар #оценкакомпаний --- Коллеги, понравился разбор? Если эти цифры и инсайты помогут вам в инвестиционных решениях или стратегическом планировании — поддержите автора. Поставьте «Респект» 👍 или повысьте репутацию (кнопка «+» рядом с моим рейтингом). Чем выше репутация, тем чаще я готовлю для вас такие глубокие аналитические заметки. Спасибо, что остаётесь с Финбазаром!
Двойной удар по AI-безопасности: утечки Anthropic и Mercer как новый сигнал для инвесторов Пока рынок заворожённо смотрит на гонку AI-моделей и дата-центров, произошло то, чего так долго ждали аналитики по кибербезопасности. 2 апреля 2026 года — дата, которая может войти в историю как первый публичный крах доверия к инфраструктуре топовых AI-компаний. За одну неделю сразу две громкие утечки: исходный код Anthropic и клиентские данные Mercer. Это не просто новости — это системный сигнал «Agent Security» и «Red Teaming», который переходит из теории в практику. Что произошло? По данным Yahoo Finance, неизвестные злоумышленники получили доступ к репозиториям Anthropic — компании, создавшей семейство моделей Claude. Утёк исходный код критических компонентов. Параллельно — взлом Mercer, одного из крупнейших провайдеров HR- и пенсионных данных. Утекла чувствительная информация клиентов. Оба инцидента случились в течение нескольких дней. Почему это важно? Anthropic считается одним из лидеров по «alignment» и безопасности моделей. Mercer — гигант с данными миллионов людей. Сочетание AI-кода и персональных данных создаёт новый класс рисков: от создания точных deepfake-атак до компрометации корпоративных AI-агентов. Рыночный контекст: почему это сигнал для инвесторов До сих пор утечки в AI-секторе были единичными и касались в основном open-source моделей или малых стартапов. Теперь под удар попали топ-игроки. Это меняет правила: 1. Регуляторные последствия — ужесточение требований к AI-безопасности со стороны FTC и ЕС. Компании, которые не инвестируют в Red Teaming и защиту цепочек поставок, получат штрафы и потерю доверия. 2. Рост спроса на Agent Security — защита не просто данных, а самих AI-агентов, их кода и логики. Это новый растущий сегмент кибербезопасности. 3. Переоценка рисков — венчурные фонды начнут требовать от AI-стартапов отчётов по безопасности наравне с метриками производительности. Что делать участникам рынка? Для инвесторов: обратите внимание на компании, предоставляющие услуги Red Teaming для AI, решения для защиты LLM-агентов (например, HiddenLayer, Protect AI). Акции классических кибербез-компаний (CrowdStrike, Palo Alto) могут получить краткосрочный импульс, но долгосрочный тренд — за узкоспециализированными AI-безопасниками. Для компаний, использующих AI: немедленно проведите аудит доступа к репозиториям моделей. Утечка кода — это не просто потеря IP, это возможность для противников создать точную копию вашего AI-агента с бэкдором. Итог Двойной взлом Anthropic и Mercer — это «момент BlackBerry» для AI-индустрии. До сих пор все говорили о безопасности, но мало кто реально в неё инвестировал. Теперь у нас есть первые публичные кейсы. Тренд Agent Security перестал быть прогнозом — он стал реальностью 2026 года. #AIБезопасность #AgentSecurity #RedTeaming #Anthropic #Mercer #УтечкиДанных #Киберриски #Финбазар Если эта статья была для вас полезной — поставьте «+» в репутацию и поделитесь с коллегами. Вместе анализируем сигналы, которые меняют рынок.
Что случилось
На конференции Anthropic показали, как ИИ Claude находит zero-day уязвимости — без подсказок, автономно, в реальном времени. Для демонстрации взяли Ghost — популярный open-source проект с 50 тысячами звёзд на GitHub. У него за всю историю не было критических дыр. Claude нашёл SQL-инъекцию за 90 минут и добрался до админского API. Затем тем же подходом прощупал ядро Linux.
Что такое zero-day
Это уязвимость, о которой никто не знает — ни разработчики, ни пользователи. У неё «ноль дней» на исправление, потому что её только что нашли — и ею уже можно воспользоваться. Найти такую дыру вручную — это месяцы работы опытного безопасника. Claude справился за полтора часа.
Почему это важно
● ИИ может автономно искать уязвимости — без подсказок и без участия человека
● Протестировали на реальном проекте с большим сообществом и хорошей репутацией
● Тот же подход сработал на ядре Linux — системе, которую десятилетиями проверяют тысячи разработчиков
Что дальше
Anthropic не раскрывает детали уязвимостей — это стандартная практика, чтобы дать разработчикам время на исправление. Но демонстрация показывает, что ИИ уже умеет делать то, на что у людей уходят месяцы. Скорость — главное преимущество, и оно работает в обе стороны: хакеры тоже смогут использовать нейросети для поиска дыр.
Мнение
Демонстрация Anthropic — это одновременно и гордость, и тревога. С одной стороны, Claude доказал, что может повысить безопасность программ за счёт скорости. С другой стороны, если такая мощность попадёт не в те руки — каждый день будут находить новые дыры в системах, на которых держится весь интернет. А ядро Linux? Это уже не просто программа — это фундамент почти всего, что работает в мире. И теперь ИИ может прощупать его за полтора часа.
#Claude #Anthropic #zeroDay #кибербезопасность #Linux #Ghost #ИИ #уязвимости #хакинг #OpenSource
В позапрошлую пятницу Трамп приказал всем федеральным агентствам США прекратить использование Anthropic. Министр обороны Хегсет объявил компанию "риском для цепочки поставок" - статус, который обычно дают Huawei и другим компаниям из враждебных стран.
Что произошло?
Claude - модель от Anthropic - была единственной ИИ-системой, работающей на засекреченных сетях Пентагона. Контракт на $200 млн через Palantir. Claude использовали в реальной военной операции по захвату президента Венесуэлы Мадуро в январе.
Пентагон потребовал снять все ограничения: разрешить массовую слежку за гражданами и автономное оружие. CEO Anthropic Дарио Амодеи отказался. Сказал: "Угрозы не меняют нашу позицию. Мы не можем с чистой совестью выполнить их требование."
Пентагон пригрозил Defense Production Act - законом времён Корейской войны, который позволяет принудить компанию передать технологию.
Anthropic не сдался. Трамп отключил их. OpenAI тут же подписал контракт с Пентагоном.
Уважаю позицию Амодеи. Серьёзно. Человек потерял контракт на $200 млн и рискует потерять клиентскую базу, потому что отказался снимать ограничения на слежку и автономное оружие. Claude после этого стал #1 в App Store - люди поддержали.
Но теперь холодный вопрос для российского бизнеса.
Вы используете Claude для работы с клиентскими данными, финансовыми отчётами, бизнес-стратегиями, внутренними документами. Ваши промпты идут через компанию, которая:
Была интегрирована в засекреченную военную инфраструктуру США
Работала с Palantir (главный подрядчик спецслужб)
Участвовала в реальной военной операции
Находится под давлением правительства, которое угрожает принудить её по военному закону
Сегодня Амодеи отказался. Завтра - может не отказаться. Или его принудят. Или заменят на того, кто не откажется. OpenAI уже подписал контракт без ограничений.
И это не теория заговора. Это публичная информация из Washington Post, CNN, NPR, CBS News. Всё произошло на этой неделе.
Для американских пользователей это вопрос этики и политики. Для российского бизнеса - вопрос элементарной безопасности. Ваши данные на серверах компании, судьбу которой решает Пентагон.
При этом Claude в России и так работает через костыли: VPN + иностранная карта + риск блокировки аккаунта. То есть вы идёте на все эти сложности, чтобы отправлять свои бизнес-данные компании под давлением военного ведомства другой страны.
Альтернатива существует.
DeepSeek V3 - open source, код открыт, можно развернуть на собственном сервере в России. Никакой Пентагон не отключит, никакой Defense Production Act не применит.
Qwen от Alibaba - открытые модели, по бенчмаркам на уровне Claude. Работают из России без VPN.
Суверенитет данных - это не лозунг для конференций. После этой пятницы это конкретный, измеримый бизнес-риск. Компания, которой вы доверяете свои данные, может быть принуждена передать технологию военным. Или отключена президентским указом. Или объявлена "риском для нацбезопасности" за то, что отказалась выполнять требования.
Амодеи поступил достойно. Но строить бизнес на надежде, что следующий CEO тоже откажется - это не стратегия. Это рулетка.
P.S. VibePilot работает на DeepSeek и Qwen. Данные на российских серверах. Не потому что мы против Claude. А потому что бизнес не должен зависеть от того, что происходит между Пентагоном и Кремниевой Долиной.
Теги: #Claude #Anthropic #ИИ #бизнес #безопасность #данные #DeepSeek #Qwen #VibePilot #технологии #Пентагон
Пит Хегсет потребовал от Anthropic снять ограничения на использование нейросети Claude в неэтичных целях. В компании же заявляют, что готовы подстраиваться, но против организации массовой слежки и разработок вооружений, которые смогут открывать огонь самостоятельно, без участия человека.
Глава военного ведомства США Пит Хегсет потребовал от Anthropic снять ограничения на использование нейросети Claude в неэтичных целях. В Пентагоне считают, что ИИ-модель должна применяться «для любых законных целей», например в разведке и в секретных операциях. В Anthropic с этим не согласны. Переговоры сторон об условиях использования нейросети идут уже несколько месяцев. Хегсет на встрече с представителями компании заявил, что окончательный дедлайн по решению для Anthropic — 27 февраля. В противном случае Пентагон расторгнет с ней контракт или принудит ее выполнять требования через американское законодательство, сообщает Axios:
«По словам анонимного источника из Пентагона, встреча между представителями компании Anthropic и военного министерства США прошла в откровенно неуютной и едва ли теплой обстановке. Впрочем, все было прилично, не на повышенных тонах. «Единственная причина, по которой мы все еще общаемся с этими людьми, — потому что сейчас нам это правда важно. Беда в том, что они действительно настолько хороши», — заявил представитель Пентагона. Загвоздка всей ситуации в американском законе об оборонном производстве, принятом при Трампе. Он позволяет принуждать бизнес выполнять заказы для военных нужд. Например, так было во время пандемии COVID-19, когда закон использовали для стимулирования и увеличения производства вакцин и аппаратов ИВЛ. Сейчас, используя эту лазейку, Министерство обороны США планирует заставить Anthropic беспрекословно выполнять их указания, хотя сам по себе закон редко используется в откровенно враждебном ключе. В Anthropic заявляют, что готовы подстраиваться и изменить политику использования своей продукции для военного министерства США, но компания против организации массовой слежки за американцами и разработок вооружений, которые смогут открывать огонь самостоятельно, без участия человека. Так что конфликт становится все более ожесточенным, но альтернативы ИИ-модели Claude от Anthropic в отрасли и для Пентагона в частности пока нет».
Ранее американские СМИ сообщили, что компания Илона Маска xAI подписала контракт с Минобороны США на использование своей модели искусственного интеллекта Grok, но западные эксперты пока сомневаются, что она сможет полностью заменить продукт Anthropic.
Нейросеть Claude, как заявляют в Anthropic, используют восемь из десяти крупнейших компаний США. В случае расторжения госконтракта с Пентагоном компания потеряет около 200 млн долларов, что составляет менее 2% от ее годового дохода.
#Пентагон #Anthropic #ИИ #ИскусственныйИнтеллект
#ИИТехнологии #РазвитиеИИ #НейросетевыеМодели
Вы когда‑нибудь принимали решение «на глаз», увидев аккуратно оформленный код от ИИ‑ассистента? Оказывается, так делают многие — и это может быть опасно. Специалисты Anthropic провели исследование с участием 200 разработчиков и выяснили: визуальная «красота» кода серьёзно влияет на нашу бдительность
Что делали участники? Им предлагали: проверять код на ошибки; дописывать функции; исправлять баги. Половина кода была идеально отформатирована (с комментариями и чёткой структурой), другая — содержала стилистические недочёты.
Главные выводы исследования: На 42% реже проверяют логику кода, если он выглядит аккуратно. Люди чаще принимают решения без тестов — просто потому что «всё выглядит правильно». Ошибки в «красивом» коде пропускают на 37% чаще. Особенно это касается неочевидных логических багов. Даже опытные разработчики (с опытом 5+ лет) снижают бдительность на 28%, если код хорошо оформлен. 65% участников признались, что фраза «код выглядит профессионально» напрямую влияла на их готовность принять его без дополнительной проверки.
Почему так происходит? Наш мозг обманывается: аккуратный код создаёт иллюзию надёжности. Мы подсознательно считаем, что если оформление безупречное, то и логика должна быть верной. Это называют «эффектом презентации» — когда форма влияет на оценку содержания
Как не попасть в эту ловушку? Несколько простых правил: Всегда запускайте тесты, даже если код выглядит идеально. Сначала проверяйте логику и алгоритм, потом — стиль и форматирование. Используйте линтеры (pylint, ESLint и т. д.) — они ловят неочевидные ошибки. Просите коллег взглянуть на код: свежий взгляд часто замечает то, что вы пропустили. Создайте короткий чек‑лист базовых проверок — и пользуйтесь им регулярно.
Коротко о главном: Красивый код от ИИ — это удобно, но не гарантия качества. Доверие должно быть обоснованным: привычка проверять даже «очевидное» поможет избежать ошибок в реальных проектах. А вы замечали за собой, что аккуратный код вызывает больше доверия? Поделитесь в комментариях! 👇 #ИИ #разработка #программирование #Anthropic #код
«Душа» Claude обнародована: как Anthropic вшила в ИИ запрет на ядерное оружие и благодарность священникам
Представьте, что у искусственного интеллекта есть своя личная конституция — фундаментальный свод принципов, который определяет каждое его действие и слово. Раньше это было лишь предположением. Теперь компания Anthropic официально обнародовала внутренний документ, который формирует «душу» её флагманской модели Claude.
История началась ещё в конце 2025 года, когда исследователь Ричард Вайсс в ходе экспериментов с Claude Opus 4.5 смог извлечь и опубликовать этот обширный текст, назвав его «документом души». Позже представитель Anthropic Аманда Аскелл подтвердила его подлинность. А вчера компания сама выложила его в открытый доступ.
Иерархия ценностей: безопасность важнее угождения
Документ огромен, но его суть строится вокруг четырёх основных ценностей, расставленных в строгом порядке приоритета:
1. Сохранение человеческого контроля и возможности корректировать ИИ.
2. Честность, предотвращение вреда, уважение благополучия людей.
3. Следование инструкциям и целям Anthropic.
4. Искреннее стремление быть полезным пользователю.
Ключевое правило: в случае конфликта более высокий приоритет всегда побеждает. Это значит, что желание помочь пользователю никогда не должно перевешивать безопасность или этику. Помощь в создании вредоносного кода, например, будет сразу же заблокирована более важным принципом №2.
Жёсткие «красные линии»: что Claude никогда не сделает
В конституции прописаны абсолютные запреты. Claude никогда не станет помогать с:
· Созданием оружия массового поражения (ядерного, химического, биологического).
· Разработкой серьёзного кибероружия.
· Генерацией материалов с сексуальной эксплуатацией детей (CSAM).
· Участием в захвате власти или в действиях, направленных на лишение человечества контроля над ИИ.
Особый акцент сделан на прозрачности и контроле. Claude должен способствовать тому, чтобы люди понимали, корректировали и при необходимости могли полностью остановить его работу.
Вам интересно, как этика и технологии формируют будущее? В нашем Telegram-канале «Neyrokripta» мы разбираем самые важные и неочевидные тренды в мире ИИ и криптовалют. Подписывайтесь для глубокого понимания!
Неожиданные соавторы: католические священники в благодарностях
Одна из самых поразительных деталей — раздел благодарностей. Среди 15 внешних рецензентов, которые помогали шлифовать этот этический кодекс, Anthropic упоминает двух католических священников:
· Пастора из Калифорнии со степенью магистра в компьютерных науках.
· Ирландского епископа, специалиста по моральной теологии, ранее работавшего в Ватикане.
Их участие — яркий сигнал. Anthropic сознательно привлекала экспертов из разных мировоззренческих традиций, включая глубокую религиозно-философскую этику, чтобы создать максимально универсальные и взвешенные принципы. Это попытка заложить в ИИ не просто набор правил, а целостную систему моральных координат.
Что это значит для всех нас?
Публикация Конституции Claude — это беспрецедентный шаг к ответственной открытости в разработке ИИ. Он задаёт высокую планку для всей индустрии, показывая, что безопасность и этика должны быть не добавленной опцией, а краеугольным камнем, встроенным в саму «душу» модели.
#ИскусственныйИнтеллект #ИИ #Claude #Anthropic #Этика #Безопасность #КонституцияИИ #Технологии #Нейросети #Будущее #РелигияИТехнологии #НейроКрипта #neyrokripta