Исследование, проведенное BBC, выявило серьезные проблемы с точностью генеративного ИИ при создании новостных сводок. Была проверена способность ChatGPT от OpenAI, Google, Gemini, Microsoft Copilot и Perplexity корректно резюмировать новости. Результаты показали, что более половины сгенерированных ответов имели «значительные проблемы в той или иной форме».
В рамках исследования BBC попросила эти модели предоставить резюме для ста статей, опубликованных на их сайте. Журналисты детально изучили ответы и обнаружили, что девятнадцать процентов из них содержали некорректные утверждения, цифры и даты. Кроме того, тринадцать процентов цитат были либо изменены, либо вообще отсутствовали в соответствующих статьях.
Одним из примеров была ошибка Google Gemini, которая неправильно утверждала, что Национальная служба здравоохранения Великобритании рекомендует не начинать вейпинг. На самом деле NHS советует использовать вейпинг для отказа от курения. Другой пример — ChatGPT, который в декабре 2024 года ошибочно заявил, что Исмаил Хания является частью руководства ХАМАС, хотя он был убит еще в июле 2024 года.
Эти неточности вызвали беспокойство в BBC, и компания обратилась к технологическим гигантам с просьбой реагировать на эти проблемы. Дебора Тернесс, генеральный директор BBC News и Current Affairs, призвала к сотрудничеству между новостной индустрией, технологическими компаниями и правительством, чтобы избежать потенциальных угроз от неточных заголовков, созданных ИИ.