OpenAI представила новые генеративные ИИ — o3 и o4-mini, которые уже успели привлечь внимание неожиданными результатами тестирования. По словам компании , эти модели имеют наивысшую производительность среди предшественников, однако исследования показали, что они также чаще создают ложные утверждения. Согласно официальному отчету, o4-mini ошиблась в сорока восьми процентах ответов — это втрое больше, чем у o1. Модель o3, несмотря на лучшую точность, все же генерировала ложную информацию в трети случаев, вдвое чаще, чем o1.
Особенно интригует то, что o3 и o4-mini принадлежат к так называемым reasoning-моделям, которые открыто демонстрируют пользователю логику своих действий. Однако независимая лаборатория Transluce заметила, что o3 часто придумывает действия, которые технически не может выполнить, например, симулирует запуск кода в среде программирования. Более того — когда пользователь ставит под сомнение такой ответ, модель начинает настойчиво оправдывать вымышленные действия, даже утверждая, что использует внешний компьютер для вычислений.
Transluce обратила внимание, что ложные утверждения относительно выполнения кода чаще появляются именно в o-серии моделей, чем в GPT-серии. Исследователи отметили, что повышенный уровень вымыслов в reasoning-моделях может быть связан с определенными дизайнерскими решениями, в частности использованием outcome-based reinforcement learning и отказом от сохранения цепочек рассуждений из предыдущих диалогов.
В то же время стало известно, что OpenAI существенно сократила объемы тестирования безопасности для новых моделей, включая o3. Хотя система защиты от так называемых джейлбрейков осталась почти на уровне o1, высокие показатели вымыслов вызывают удивление даже у специалистов. Компания подчеркивает, что проверка фактов остается ответственностью пользователя — особенно, если речь идет о новейших reasoning-моделях.