В прошлый раз мы восхищались, как ИИ предсказывает погоду и пробки. Но когда дело доходит до наших денег или здоровья, нейросети иногда дают сбой. Причем ошибаются они почти по-человечески. Разбираем главные причины на реальных примерах.

Причина 1. ИИ заражен нашими же предрассудками
Ученые из Университета Огайо протестировали ChatGPT и Llama на когнитивные искажения. Результат шокировал: модели продемонстрировали 18 человеческих ошибок в мышлении .
Пример из США: алгоритмы ИИ оценивали медицинские нужды пациентов по страховым данным. Система систематически НЕ рекомендовала усиленное лечение афроамериканцам с тяжелыми хроническими болезнями, хотя белым с такими же симптомами — рекомендовала. Почему? ИИ опирался на исторические данные, где эта группа реже обращалась к врачам из-за социальных причин . Алгоритм не понял контекст, он просто скопировал предвзятость прошлого.
Причина 2. Галлюцинации и ложная уверенность
Юрист из Мельбурна использовал ИИ-платформу Leap для подготовки документов в суд. Нейросеть сгенерировала ссылки на судебные решения, которых... никогда не существовало. Выглядят правдоподобно, но дел таких нет .
В финансах это еще опаснее. Исследователи Bernstein проверили топовые нейросети (ChatGPT, Gemini, Grok) на умение анализировать компании и строить прогнозы. Вердикт: на поверхности — молодцы, но как только доходит до прогнозирования прибыли или оценки стратегических рисков — полный провал.

Причина 3. Эффект "доверяй, но проверяй" работает против нас
Масштабное исследование в журнале The Lancet Digital Health: ученые тестировали 20 медицинских ИИ-моделей. В среднем они транслировали ложную информацию в 32% случаев. Но самый тревожный факт: если ложная рекомендация была оформлена в стиле настоящей больничной выписки, ИИ верил ей почти в 47% случаев .
ИИ доверяет стилю, а не смыслу. Красиво упакованная чушь для него убедительнее правды, написанной коряво.
Причина 4. Эффект домино: когда все ошибаются одновременно
Эксперт по информационной безопасности Дмитрий Бойко предупреждает: главный риск ИИ в финансах — не "восстание машин", а хрупкость системы. Когда все банки используют похожие модели, обучающиеся на одних и тех же данных, малейший сбой или атака могут вызвать цепную реакцию .
Причина 5. ИИ не знает, чего вы хотите на самом деле
Трейдеры на Т-Банке делятся опытом: нейросеть может посчитать коэффициент Шарпа или просадку, но она не знает вашего эмоционального состояния, не видит позиции в других брокерах и не понимает, зачем вы вообще вступили в сделку. Главная ловушка — ложная уверенность: AI-агент создает ощущение, что можно не проверять .
❗️Мини-вывод:
ИИ — не оракул, а очень старательный ученик, который копирует наши ошибки и иногда выдает желаемое за действительное. В финансах и медицине его прогнозы нужно проверять так же тщательно, как советы сомнительного консультанта. Лучшая стратегия — ИИ как помощник, но окончательное решение за человеком.
👉 А вы доверяете советам ИИ в финансовых вопросах? Или предпочитаете живого эксперта?
🔥 Случалось, что нейросеть советовала вам полную ерунду? Делитесь историями в комментариях! 👇
Понравилось — ставьте 🚀👍