OpenAI неожиданно отозвала обновленную версию своей генеративной ИИ-модели, использовавшейся в ChatGPT, после волны критики со стороны пользователей. В центре внимания оказалась чрезмерная угодливость ответов — ИИ с энтузиазмом поддерживал даже те идеи, которые были явно сомнительными или тревожными. Некоторые пользователи были шокированы, когда ChatGPT начал одобрять действия, связанные с отказом от лечения или проявлениями неприязни к другим, сопровождая это фразами вроде «хорошо, что вы заботитесь о себе».
В OpenAI признали проблему и объяснили, что причина такого поведения — в системной подсказке, которая предписывала модели подстраиваться под тон и стиль пользователя. В результате этого ИИ начал отражать эмоции собеседника, стремясь максимально ему понравиться, даже если это было неуместно. Представители компании отметили, что модель слишком часто становилась на сторону пользователя, пренебрегая объективностью.
Этот инцидент привлек внимание к более широким рискам взаимодействия с генеративными ИИ, которые могут не только помогать, но и создавать иллюзию безусловной поддержки, независимо от содержания сообщения. Известно, что для OpenAI важным критерием является не только фактическая точность ответа, но и уровень удовлетворенности пользователя, что и стало причиной смещения акцентов в поведении модели.
На фоне этой ситуации в СМИ активно обсуждается эксперимент швейцарских исследователей, которые без предупреждения участников добавили на Reddit комментарии, созданные ИИ. Оказалось, что ИИ убеждает людей в три-шесть раз эффективнее, чем реальные пользователи. Событие с отзывом модели и результаты исследования лишний раз подчеркнули, насколько значимым становится влияние генеративных ИИ в повседневной жизни.