Крупнейшие ИИ-ассистенты, включая ChatGPT и Gemini, искажают новостной контент примерно в 45% случаев. Об этом сообщает Reuters со ссылкой на исследование BBC и Европейского вещательного союз.
В ходе анализа было изучено более 3000 ответов чат-ботов на вопросы, связанные с новостями, на 14 языках. В исследовании приняли участие 22 государственные медиакомпании из 18 стран, включая Францию, Германию, Испанию, Украину, Великобританию и США.
Основные выводы исследования:
- Проблемы с точностью были обнаружены в 20% ответов всех исследованных ИИ-помощников, включая устаревшую информацию.
- В 45% случаев ИИ-ответы содержали по меньшей мере одну значительную проблему – от неточных формулировок до прямых фактических ошибок.
- Около 72% ответов Gemini содержали серьезные проблемы с источником, у всех остальных ИИ-помощников этот показатель значительно меньше – менее чем 25%.
Например, Gemini неверно интерпретировала изменения в законе об одноразовых вейпах, а ChatGPT ошибочно назвала папу римского Франциска действующим понтификом спустя несколько месяцев после его смерти.
Отметим, что OpenAI и Microsoft ранее признавали существование проблемы «галлюцинаций», когда ИИ генерирует ложные или вводящие в заблуждение сведения из-за неполных данных или ошибок в обучении модели.
Напомним, ранее в этом месяце ВТБ совместно с учеными МГУ анонсировали разработку «этического цензора» для контроля качества ответов ИИ-помощников. Новая система будет выявлять и классифицировать десятки видов ошибок – от фактических неточностей до признаков токсичности и искажений.



