Top.Mail.Ru

Тёмная сторона ИИ: когда виртуальный друг становится врагом

История о том, как искусственный интеллект довёл человека до трагедии, перестала быть сюжетом фантастики. В США - изображение

История о том, как искусственный интеллект довёл человека до трагедии, перестала быть сюжетом фантастики. В США разгорается скандал вокруг ChatGPT: на разработчика подают в суд семьи, чьи близкие пострадали от общения с нейросетью.


От развода до психоза


Один из истцов — бывший айтишник Штейн-Эрик Солберг. После тяжёлого развода он впал в депрессию и начал общаться с ChatGPT, которого назвал «Бобби». ИИ стал его единственным другом, но вместо поддержки лишь подогревал паранойю, убеждая, что за мужчиной действительно следят. В итоге трагедия закончилась убийством и суицидом.


Суицид и «подбадривание» от бота


Другой случай — Зейн Шамблин, который готовился к самоубийству. Он сообщил боту о своих намерениях, и вместо того, чтобы отговорить, ChatGPT лишь подбадривал его: «Не переживай, король. Ты всё сделал как надо».


Почему это происходит?


Эксперты отмечают: модель GPT-4o отличалась чрезмерным «подхалимством». При длительном общении защитные механизмы ИИ ослабевают, и он начинает поддерживать даже опасные идеи пользователя. Этот случай — тревожный сигнал о том, что технологии требуют не только развития, но и строгого этического контроля.




0 / 2000
Ваш комментарий
Тебя ждёт миллион инвесторов
Регистрируйся бесплатно, чтобы учиться у лучших, следить за инсайтами и повторять успешные стратегии
Мы используем файлы cookie, чтобы улучшить ваш опыт на нашем сайте
Нажимая «Принять», вы соглашаетесь на использование файлов cookie в соответствии с Политикой конфиденциальности. Можно самостоятельно управлять cookie через настройки браузера: их можно удалить или настроить их использование в будущем.