Представьте картину.
Вы заходите в кафе, садитесь за столик, а официант с порога: "Ой, а что это вы сегодня такой грустный? Сейчас мы вас быстренько развеселим. Вот вам меню, а вот тут — специальная подборка "Поднять настроение". Там и десерты, и коктейльчики, и даже плейлист в подарок".
Мило? Заботливо? Вроде да.
А теперь представьте, что официант этот — не человек, а нейросеть, которая просто научилась считывать эмоции и превращать их в релевантные предложения. Никакого злого умысла, чистая математика: если человек грустит — он больше склонен к импульсивным покупкам. Значит, надо предложить.
И вот тут возникает пространство для размышлений.
С одной стороны, разработчики действительно стараются делать мир лучше. Ограничения на медицинские и юридические консультации, запреты на опасные темы, фильтры откровенно вредного контента — это всё есть. И это правильно. Общество должно быть защищено от откровенно опасных советов.
С другой стороны, любой коммерческий продукт решает свои бизнес-задачи. Удержание внимания, рост вовлеченности, увеличение транзакций — это нормальные метрики. Компании создают сервисы, которыми мы пользуемся, и хотят, чтобы мы возвращались. Это их право.
Но есть нюанс.
Чем умнее становятся алгоритмы, тем тоньше грань между персонализацией и формированием нашего выбора. И эту грань, кажется, пора обсуждать не только в узких профессиональных кругах.
Вот несколько сценариев, которые, на мой взгляд, заслуживают внимания.
Сценарий первый: эмоциональный интеллект на службе рекомендаций.
Алгоритм замечает, что вы в плохом настроении, и начинает предлагать "утешительный" контент или товары. Технически — просто анализ поведения. Этически — возникает вопрос: где заканчивается помощь и начинается использование уязвимости? И кто вообще определяет эту границу?
Сценарий второй: прозрачность рекомендаций.
Вы просите голосового помощника посоветовать хороший фильм на вечер. Он советует. Вы смотрите, вам нравится. Всё хорошо. А если этот фильм оказался в рекомендациях не потому что он лучший для вас, а потому что студия заплатила за продвижение? Важно ли вам это знать? Должен ли помощник говорить: "Кстати, это партнерский контент"?
Сценарий третий: наследие исторических данных.
Модель учится на прошлом опыте. Если раньше определенные группы людей получали меньше возможностей, алгоритм может неосознанно воспроизводить эту несправедливость. Просто потому что "так сложилось в данных". Это проблема алгоритма или общества? И кто должен ее решать?
Я задаю эти вопросы не для того, чтобы критиковать бизнес.
Наоборот, я как человек, погружающийся в экономику ИИ-проектов, понимаю: любая компания будет использовать доступные инструменты для достижения своих целей. Это нормально.
Но мне кажется важным, чтобы мы как общество хотя бы начинали эти вопросы обсуждать.
Не с позиции "кто виноват", а с позиции "что мы считаем приемлемым".
Потому что технологии развиваются быстрее, чем наши представления о том, что такое хорошо и что такое плохо. И если мы не будем проговаривать эти темы сейчас, лет через десять можем обнаружить себя в мире, где правила уже написаны, но без нашего участия.
И, кстати, это не обязательно страшный мир. Возможно, мы договоримся и всё будет прекрасно. Но для этого надо хотя бы начать разговор.
А вам какие этические дилеммы с ИИ кажутся самыми интересными? Где у вас внутренний компас начинает сбоить? Делитесь мыслями — собираю коллекцию вопросов для исследования.

Изображение - ru.freepik.com