Top.Mail.Ru

ИИ и этика. Есть вопросики… 


Представьте картину.

Вы заходите в кафе, садитесь за столик, а официант с порога: "Ой, а что это вы сегодня такой грустный? Сейчас мы вас быстренько развеселим. Вот вам меню, а вот тут — специальная подборка "Поднять настроение". Там и десерты, и коктейльчики, и даже плейлист в подарок".


Мило? Заботливо? Вроде да.


А теперь представьте, что официант этот — не человек, а нейросеть, которая просто научилась считывать эмоции и превращать их в релевантные предложения. Никакого злого умысла, чистая математика: если человек грустит — он больше склонен к импульсивным покупкам. Значит, надо предложить.


И вот тут возникает пространство для размышлений.


С одной стороны, разработчики действительно стараются делать мир лучше. Ограничения на медицинские и юридические консультации, запреты на опасные темы, фильтры откровенно вредного контента — это всё есть. И это правильно. Общество должно быть защищено от откровенно опасных советов.


С другой стороны, любой коммерческий продукт решает свои бизнес-задачи. Удержание внимания, рост вовлеченности, увеличение транзакций — это нормальные метрики. Компании создают сервисы, которыми мы пользуемся, и хотят, чтобы мы возвращались. Это их право.


Но есть нюанс.


Чем умнее становятся алгоритмы, тем тоньше грань между персонализацией и формированием нашего выбора. И эту грань, кажется, пора обсуждать не только в узких профессиональных кругах.


Вот несколько сценариев, которые, на мой взгляд, заслуживают внимания.


Сценарий первый: эмоциональный интеллект на службе рекомендаций.

Алгоритм замечает, что вы в плохом настроении, и начинает предлагать "утешительный" контент или товары. Технически — просто анализ поведения. Этически — возникает вопрос: где заканчивается помощь и начинается использование уязвимости? И кто вообще определяет эту границу?


Сценарий второй: прозрачность рекомендаций.

Вы просите голосового помощника посоветовать хороший фильм на вечер. Он советует. Вы смотрите, вам нравится. Всё хорошо. А если этот фильм оказался в рекомендациях не потому что он лучший для вас, а потому что студия заплатила за продвижение? Важно ли вам это знать? Должен ли помощник говорить: "Кстати, это партнерский контент"?


Сценарий третий: наследие исторических данных.

Модель учится на прошлом опыте. Если раньше определенные группы людей получали меньше возможностей, алгоритм может неосознанно воспроизводить эту несправедливость. Просто потому что "так сложилось в данных". Это проблема алгоритма или общества? И кто должен ее решать?


Я задаю эти вопросы не для того, чтобы критиковать бизнес.


Наоборот, я как человек, погружающийся в экономику ИИ-проектов, понимаю: любая компания будет использовать доступные инструменты для достижения своих целей. Это нормально.


Но мне кажется важным, чтобы мы как общество хотя бы начинали эти вопросы обсуждать.


Не с позиции "кто виноват", а с позиции "что мы считаем приемлемым".


Потому что технологии развиваются быстрее, чем наши представления о том, что такое хорошо и что такое плохо. И если мы не будем проговаривать эти темы сейчас, лет через десять можем обнаружить себя в мире, где правила уже написаны, но без нашего участия.


И, кстати, это не обязательно страшный мир. Возможно, мы договоримся и всё будет прекрасно. Но для этого надо хотя бы начать разговор.


А вам какие этические дилеммы с ИИ кажутся самыми интересными? Где у вас внутренний компас начинает сбоить? Делитесь мыслями — собираю коллекцию вопросов для исследования.

Представьте картину. Вы заходите в кафе, садитесь за столик, а официант с порога: "Ой, а что это вы сегодня - изображение

Изображение - ru.freepik.com

0 / 2000
Ваш комментарий
Тебя ждёт миллион инвесторов
Регистрируйся бесплатно, чтобы учиться у лучших, следить за инсайтами и повторять успешные стратегии
Мы используем файлы cookie, чтобы улучшить ваш опыт на нашем сайте
Нажимая «Принять», вы соглашаетесь на использование файлов cookie в соответствии с Политикой конфиденциальности. Можно самостоятельно управлять cookie через настройки браузера: их можно удалить или настроить их использование в будущем.
ИИ и этика Есть вопросики | Базар