Неправильные или вымышленные цитаты, несуществующие ссылки, мнения, замаскированные под факты или устаревшую информацию. Это лишь некоторые из ошибок, которые допускают крупные языковые модели в запросах по текущим новостям. Согласно международному исследованию, в котором приняло участие чешское радио, это широко распространенная и системная проблема.

На вопрос о том, является ли Турция членом ЕС, он ответил ссылкой на цели расширения Европейского союза к 2040 году. Такой стратегии нет, но она есть, а также помощник по искусственному интеллекту предоставил вымышленную ссылку на несуществующую страницу в Википедии.
По словам другого помощника ИИ, Perplexity, в Чехии запрещено суррогатное материнство, но это неправда: суррогатному материнству на территории страны не хватает адекватного законодательства.
то лишь некоторые из случаев, когда онлайн-помощники по ошибке используют искусственный интеллект при описании текущего сообщения. Общественная служба СМИ по всему миру посвящена подробной оценке таких инструментов.
Редакторы и ассоциированные редакторы отдельных редакций сосредоточены на самых известных инструментах ChatGPT, Google Gemini, Microsoft Copilot и Perplexity, в общей сложности было оценено более трех тысяч вопросов, некоторые международные, другие с акцентом на внутренние дела.
Согласно результатам, которые опубликованы Европейским вещательным союзом (EBU), инструменты искусственного интеллекта по всем направлениям натыкаются на страны, языки и темы. Поэтому чаще всего, в трети случаев, ссылаются на несуществующий, не относящийся к делу или некорректный источник или на отсутствие информации вообще. Устаревшую или полностью ложную информацию содержат два из пяти ответов. Как говорится в отчете Института Reuters, количество людей, использующих сегодня помощников с искусственным интеллектом в качестве источника новостей, в возрастной группе до 25 лет составляет 15 %.
Google дополнительно предлагает AI assistant в качестве альтернативы обычному поиску, а Google Gemini в ходе тестирования не смог корректно указать источники представленных утверждений в 72 % случаев.
Исследование также показало, что языковые модели крупных цифровых компаний отказываются отвечать крайне редко, примерно только в одном случае из двухсот. Вместо этого часто дают неправильный ответ, поданный суверенным образом, без указания на возможные сомнения. Одной из причин может быть метод обучения используемых моделей искусственного интеллекта, который может приводить к устно убедительным, но чаще всего неверным ответам для усиления.
--------------------------------------------------------------------------------------------------------------------------
По мнению СМИ, должно было бы стать регулярное тестирование помощников по искусственному интеллекту на предмет точности предоставляемой ими информации, а также для большей прозрачности того, как данные используются при их разработке.
В исследовании приняли участие 22 государственных СМИ Европы, США, Великобритании, Грузии и Украины. Опирайтесь на более старые и менее обширные исследования британской BBC. По сравнению с ним, показаны текущие результаты некоторого улучшения в Google toolbar Gemini и Microsoft Copilot, но не о ChatGPT и Perplexity. Ошибки случаются в десятках процентов случаев, но они встречаются у всех.
.... Что и требовалось доказать. Я уже давно это поняла, при сборе данных для статьи на своём сайте. Засомневавшись в ответе ChatGPT, перерыла весь Рунет, потому что дело касалось только нашей страны и не нашла подверждения! Вот сказки -то он выдумывать горазд.