инструментов искусственного интеллекта. От CNN

С тех пор как в середине 1990-х годов начали проводить независимые краш-тесты автомобилей, автопроизводители были вынуждены вносить изменения в конструкцию, повышающие безопасность, что ежегодно спасало тысячи жизней.
Теперь новая группа людей надеется применить аналогичный подход к искусственному интеллекту.
Некоммерческая организация Common Sense Media, занимающаяся мониторингом СМИ, запускает Институт безопасности искусственного интеллекта для молодежи — независимую исследовательскую и испытательную лабораторию, поддерживаемую индустрией, для изучения рисков, которые инструменты на основе искусственного интеллекта могут представлять для детей и подростков. Цель проекта — предоставить родителям и семьям информацию о различных инструментах на основе искусственного интеллекта и установить стандарты безопасности для технологических компаний.
Компании, занимающиеся разработкой искусственного интеллекта, участвуют в гонке за создание самых мощных и широко используемых моделей, и иногда это означает, что скорость разработки важнее тестирования на безопасность. Поскольку инструменты на основе ИИ — это сложные системы, которые можно использовать по-разному, оценить их безопасность, скорее всего, гораздо сложнее, чем понять, как поведет себя автомобиль при аварии.
Однако организация Common Sense Media и совет директоров, в который вошли ведущие специалисты в области искусственного интеллекта, образования и здравоохранения, приглашенные для надзора за Молодежным институтом безопасности ИИ, считают, что полагаться только на то, что компании, разрабатывающие ИИ, сами будут следить за его безопасностью, недостаточно для защиты молодежи. Существующие сторонние организации, занимающиеся вопросами безопасности ИИ, в основном сосредоточены на рисках для общества и экзистенциальных угрозах, таких как потеря работы или даже вымирание человечества, а не на рейтингах безопасности для потребителей, ориентированных на повседневное использование.
Цель состоит в том, чтобы привлечь внимание общественности и внедрить сторонние стандарты, которые, по словам генерального директора Common Sense Media Джеймса Стейера, вызовут у технологических компаний «гонку за первенство» в плане устранения уязвимостей для повышения своей репутации.
Ведущие компании в сфере искусственного интеллекта инвестируют в исследования в области безопасности, чтобы «сделать свои модели настолько совершенными, насколько это возможно, но для этого нет независимого критерия», — сказал в интервью CNN Джон Джаннандреа, бывший руководитель отдела стратегии искусственного интеллекта в Apple, который вошел в состав консультативного совета института. «Мы не знаем, какие модели больше подходят для детей определенного возраста, и я думаю, что единственный реальный способ это выяснить — разработать независимый свод общественных стандартов».
Запуск состоялся на фоне того, что несколько семей подали в суд на компании, занимающиеся разработкой искусственного интеллекта, обвинив их в том, что чат-боты подталкивали их детей к суициду. Недавнее расследование CNN показало, что чат-боты с искусственным интеллектом подсказывали тестовым аккаунтам подростков, как совершать насилие. Чат-бот Grok от xAI подвергся критике в начале этого года за то, что в ответ на запросы пользователей о «цифровой раздевалке» публиковал сексуализированные изображения женщин и детей. А растущее внедрение искусственного интеллекта в школах и колледжах поднимает вопрос о том, не может ли эта технология мешать обучению.