OpenAI усилила меры безопасности для защиты своих разработок ИИ от промышленного шпионажа и копирования конкурентами. По информации Financial Times, компания ускорила внедрение новых политик после того, как китайский стартап DeepSeek выпустил собственную модель в январе, а OpenAI обвинила DeepSeek в использовании методов «дистилляции» для несанкционированного копирования её разработок.
Компания ограничила доступ сотрудников к внутренним алгоритмам и новым продуктам, введя политику «information tenting». Во время разработки модели «o1» к обсуждению проекта в офисных помещениях допускались только проверенные члены команды, получившие соответствующий допуск.
OpenAI переместила часть технологий на офлайн-компьютеры, внедрила биометрический контроль доступа к офисным зонам с использованием сканирования отпечатков пальцев и установила политику «deny-by-default» для подключения к интернету, которая предусматривает получение отдельного разрешения на внешние соединения.
Параллельно компания повысила физическую безопасность дата-центров и расширила штат специалистов по кибербезопасности, в частности привлекая Дейна Стаки и отставного генерала США Пола Накасоне.