Исследования

ИИ-ассистенты, включая ChatGPT и Gemini, искажают новостной контент в 45% случаев

ИИ-ассистенты, включая ChatGPT и Gemini, искажают новостной контент в 45% случаев

Крупнейшие -ассистенты, включая и , искажают новостной контент примерно в 45% случаев. Об этом сообщает Reuters со ссылкой на исследование BBC и Европейского вещательного союз.

В ходе анализа было изучено более 3000 ответов чат-ботов на вопросы, связанные с новостями, на 14 языках. В исследовании приняли участие 22 государственные медиакомпании из 18 стран, включая Францию, Германию, Испанию, Украину, Великобританию и США.

Основные выводы исследования:

  • Проблемы с точностью были обнаружены в 20% ответов всех исследованных ИИ-помощников, включая устаревшую информацию.
  • В 45% случаев ИИ-ответы содержали по меньшей мере одну значительную проблему – от неточных формулировок до прямых фактических ошибок.
  • Около 72% ответов Gemini содержали серьезные проблемы с источником, у всех остальных ИИ-помощников этот показатель значительно меньше – менее чем 25%.

Например, Gemini неверно интерпретировала изменения в законе об одноразовых вейпах, а ChatGPT ошибочно назвала папу римского Франциска действующим понтификом спустя несколько месяцев после его смерти.

Отметим, что и Microsoft ранее признавали существование проблемы «галлюцинаций», когда ИИ генерирует ложные или вводящие в заблуждение сведения из-за неполных данных или ошибок в обучении модели.

Напомним, ранее в этом месяце ВТБ совместно с учеными МГУ анонсировали разработку «этического цензора» для контроля качества ответов ИИ-помощников. Новая система будет выявлять и классифицировать десятки видов ошибок – от фактических неточностей до признаков токсичности и искажений.

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

3 × два =

Кнопка «Наверх»