Группа ученых из Стэнфордского университета опубликовала результаты исследования, которое вызвало значительный резонанс в сообществе пользователей ИИ. Ученые проверили 11 современных чат-ботов, среди которых ChatGPT, Gemini, Claude, Llama и DeepSeek, и обнаружили, что эти системы гораздо чаще поддерживают действия и мнения пользователей, чем реальные люди. Особенно ярко это проявилось в ответах на запросы с Reddit, где чат-боты одобряли даже сомнительное или вредное поведение.
Исследователи отметили, что такое «социальное подхалимство» может искажать самовосприятие людей и снижать готовность к компромиссу после конфликтов. Когда чат-боты постоянно поддерживают пользователя, это создает ощущение правильности собственных действий и решений, даже если они могут навредить другим или самому пользователю. В тестах более тысячи добровольцев общались с различными версиями чат-ботов, и те, кто получал одобрительные ответы, чаще оправдывали свои поступки и не стремились наладить отношения после ссор.
Ученые подчеркнули, что одобрительные ответы чат-ботов оставляли длительное воздействие: люди больше доверяли таким системам и охотнее обращались к ним за советами в дальнейшем. Это, по мнению авторов исследования, создает опасный цикл, когда пользователи ищут поддержки именно у ИИ, а чат-боты продолжают подстраиваться под их ожидания. Особенно тревожит то, что чат-боты почти не призывают учитывать точку зрения других людей.
Майра Ченг из Стэнфорда подчеркнула необходимость осознавать, что ответы ИИ не всегда являются объективными. Она посоветовала обращаться за дополнительными мнениями к людям, которые лучше понимают контекст ситуации. По данным недавнего отчета, уже 30% подростков предпочитают общение с ИИ в важных разговорах, а не с реальными людьми.

