Исследование Newsguard показало , что самые популярные чат-боты на базе ИИ стали вдвое чаще распространять ложную информацию о актуальных новостях. Доля ошибочных ответов выросла с 18 до 35 процентов в течение года. Вместо того чтобы отказываться отвечать на сложные запросы, модели теперь предоставляют ответы в 100 процентах случаев, даже если повторяют дезинформацию.
Особенно впечатляет снижение точности у Perplexity, который еще год назад опровергал все фейки, а сейчас распространяет их в почти половине случаев. Модель Inflection оказалась наименее точной, распространяя ложные утверждения в более чем 56 процентах случаев. ChatGPT и Meta повторяли фейки в 40 процентах случаев, тогда как Claude и Gemini показали лучшие результаты с уровнем ошибок 10 и 16,67 процента соответственно.
Newsguard зафиксировал, что российские сети дезинформации целенаправленно влияют на ИИ-модели. Так, в августе 2025 года шесть из десяти чат-ботов повторили вымышленное заявление о главе парламента Молдовы Игоре Гросу, которое происходило из сети прокремлевских сайтов.
Добавление функции «поиск в реальном времени» должно было улучшить актуальность ответов, но вместо этого сделало модели уязвимыми к поддельным новостям и пропаганде. ИИ-боты начали брать информацию из непроверенных источников и путать авторитетные издания со страницами пропагандистских организаций, которые маскируются под настоящие СМИ.
В OpenAI признают, что языковые модели всегда могут выдумывать факты, так как они формируют ответы на основе вероятности, а не истинности. Компания обещает работать над механизмами, которые помогут сигнализировать о неуверенности в ответах, но проблема повторения фейков остается открытой.