OpenAI тестирует в ChatGPT новую систему безопасности, которая автоматически переключает пользователей на более ограниченную языковую модель во время эмоциональных или персонализированных разговоров. Об этом сообщил Ник Терли, руководитель ChatGPT. Система вмешивается, когда диалог переходит к «чувствительным или эмоциональным темам», и выполняет это на уровне отдельного сообщения.
В таких случаях ChatGPT может временно передавать запросы пользователя более строгой модели, например, GPT-5 или специализированному варианту «gpt-5-chat-safety». Пользователи не получают уведомления о смене, но могут заметить это, если спросят у системы напрямую. Анализ показал, что даже личные или эмоциональные вопросы часто вызывают автоматический переход на «gpt-5-chat-safety». Кроме этого, существует отдельная модель «gpt-5-a-t-mini», которую используют для потенциально незаконных запросов.
Некоторые пользователи критикуют OpenAI за недостаточную прозрачность относительно момента и причины переключения моделей, считая это чрезмерным ограничением. OpenAI объясняет, что такие меры связаны с попыткой сделать ChatGPT более человечным собеседником. Ранее компания сталкивалась с ситуациями, когда пользователи формировали эмоциональные связи с ботом, что создавало новые вызовы.