Anthropic объявила о новой политике обработки данных пользователей в сервисе Claude. Отныне компания будет использовать новые чаты и сессии кодирования для обучения своих ИИ-моделей, если пользователи явно не отключат эту опцию в настройках. Изменения касаются всех тарифов, включая Claude Free, Pro и Max, но не влияют на корпоративные продукты, такие как Claude for Work, Claude for Education, Claude Gov и API-доступ через партнеров, таких как Amazon Bedrock или Google Cloud Vertex AI.
Пользователи должны сделать выбор относительно обработки своих данных до 28 сентября 2025 года. Новые пользователи выбирают настройки во время регистрации, а существующие — через специальное окно, которое появится при входе в сервис. Если не указать свою позицию, система автоматически включает разрешение на использование данных для обучения ИИ. Разрешение можно отозвать в настройках конфиденциальности в любой момент, но это не повлияет на данные, которые уже попали в учебную выборку.
Если пользователь разрешает использование своих чатов и сессий кодирования, Anthropic сохраняет такие данные до пяти лет для улучшения ИИ и защиты сервиса. В случае отказа компания сохраняет информацию только в течение 30 дней. Политика не распространяется на предыдущие чаты или сессии, которые не были восстановлены после внедрения новых правил.
Anthropic также сообщает, что использует инструменты и автоматизированные процессы для фильтрации или скрытия конфиденциальной информации и не продает данные третьим сторонам.