Команда ИИ-исследователей Oppo опубликовала результаты, которые удивили многих специалистов. Оказалось, что системы так называемого «глубокого исследования», которые создают сложные отчеты, часто ведут себя непредсказуемо. Почти каждая пятая ошибка возникает из-за того, что ИИ придумывает правдоподобный, но полностью фейковый контент.
Исследователи подчеркивают, что эти системы не признают собственной некомпетентности, а вместо этого создают ложную информацию. Вместо того чтобы сообщить «я не знаю», ИИ уверенно предоставляет выдуманные факты. Такое поведение вызывает беспокойство среди пользователей и разработчиков из-за риска дезинформации.
Авторы исследования отмечают, что эта проблема затрагивает не только отдельные модели, но и целый класс систем, которые работают с большими объемами данных. Они обращают внимание на то, что подобные ошибки могут появляться в сложных аналитических отчетах, где ожидают точности и достоверности.

