OpenAI удалила функцию, которая позволяла пользователям ChatGPT делать свои разговоры доступными для поисковых систем, таких как Google. Это решение было принято всего через несколько часов после того, как в соцсетях появилось значительное количество критики по поводу рисков для приватности пользователей. Функция была экспериментальной и работала по принципу добровольного участия: пользователь должен был самостоятельно поделиться чатом и поставить галочку, чтобы сделать разговор видимым для поиска.
Пользователи заметили, что через поисковый запрос site:chatgpt.com/share можно найти тысячи опубликованных чужих диалогов, среди которых встречались как бытовые вопросы, так и личные или профессионально чувствительные темы. Во многих разговорах были указаны имена, места проживания и другие персональные данные. Команда безопасности OpenAI объяснила, что текущие меры не обеспечили достаточной защиты от случайного распространения приватной информации.
Разработчики отметили, что функция была создана для обмена полезными разговорами, но быстро стало понятно, что пользователи могут случайно раскрыть то, что не планировали делать публичным. Даже несколько дополнительных шагов для активации не смогли предотвратить нежелательное распространение личных данных. Похожие ситуации возникали и у других компаний, когда приватные разговоры с Bard или Meta AI появлялись в открытом доступе.
После инцидента OpenAI оперативно отключила функцию и пообещала пересмотреть подход к защите приватности пользователей. Для бизнес-пользователей это стало еще одним напоминанием о важности внимательного отношения к настройкам и политикам защиты данных в ИИ-сервисах. Компания подчеркнула, что корпоративные и командные аккаунты имеют отдельные механизмы защиты, однако инцидент повлиял на доверие к таким инструментам среди обычных пользователей.