Используя этот сайт, вы соглашаетесь с нашей политикой конфиденциальности и условиями использования.
Accept
Craftium.AICraftium.AICraftium.AI
  • Главная
  • Новости
  • Каталог
  • Подборки
  • Блог
Font ResizerAa
Craftium.AICraftium.AI
Font ResizerAa
Поиск
  • Главная
  • Новости
  • Каталог
  • Подборки
  • Блог
Следите за нами:
  • Правила пользования
  • Политика конфиденциальности
  • Авторские права
  • Обратная связь
© 2024-2025 Craftium.AI.

OpenAI укрепляет защиту от шпионажа конкурентов

Компания ограничила доступ к алгоритмам, ввела биометрию и усилила физическую охрану дата-центров после инцидента с DeepSeek

Igor Lev
Igor Lev
Опубликовано: 09.07.2025
Новости
Шпионы в ИИ
Шпионы в ИИ. Иллюстрация: Craftium.AI, сгенерировано GPT-4o.
Поделиться:

OpenAI усилила меры безопасности для защиты своих разработок ИИ от промышленного шпионажа и копирования конкурентами. По информации Financial Times, компания ускорила внедрение новых политик после того, как китайский стартап DeepSeek выпустил собственную модель в январе, а OpenAI обвинила DeepSeek в использовании методов «дистилляции» для несанкционированного копирования её разработок.

Компания ограничила доступ сотрудников к внутренним алгоритмам и новым продуктам, введя политику «information tenting». Во время разработки модели «o1» к обсуждению проекта в офисных помещениях допускались только проверенные члены команды, получившие соответствующий допуск.

Читайте также

ИИ-обучение
ChatGPT тестирует функцию «совместного обучения» для пользователей
Лучшие VPN для доступа к ИИ-сервисам — бесплатные и платные
Количество пользователей ИИ достигло 1,8 миллиарда, платно им пользуются лишь 3%

OpenAI переместила часть технологий на офлайн-компьютеры, внедрила биометрический контроль доступа к офисным зонам с использованием сканирования отпечатков пальцев и установила политику «deny-by-default» для подключения к интернету, которая предусматривает получение отдельного разрешения на внешние соединения.

Параллельно компания повысила физическую безопасность дата-центров и расширила штат специалистов по кибербезопасности, в частности привлекая Дейна Стаки и отставного генерала США Пола Накасоне.

Apple тестирует модели OpenAI и Anthropic для Siri нового поколения
Берлин призывает Apple и Google удалить DeepSeek из магазинов приложений
Ведущие ИИ-модели проявляют вредную автономию в тестах Anthropic
OpenAI удаляет упоминания о «io» из-за судебного иска
OpenAI позволяет записывать голосовые сессии в ChatGPT на Mac
Отметки:DeepSeekOpenAIБезопасность
Комментариев нет

Добавить комментарий Отменить ответ

Следи за нами

XСледовать
InstagramСледовать
YoutubeПодписаться
TelegramСледовать

Популярные новости

Hailuo 02
MiniMax выпустил Hailuo 02 с поддержкой 1080p и сложной физикой
17.06.2025
ChatGPT WhatsApp
Генерация изображений ChatGPT теперь доступна в WhatsApp
18.06.2025
Mistral AI
Mistral AI представила улучшенную открытую модель Small 3.2
21.06.2025
Графическое представление голоса ElevenLabs
Голосовой ассистент 11ai от ElevenLabs получил альфа-версию
25.06.2025
Seedance 1.0
Seedance 1.0 обошла Veo 3 и KLING 2.1 в генерации ИИ-видео
16.06.2025

Читайте также

GPT-5
Новости

Выход GPT-5 от OpenAI ожидается уже этим летом

18.06.2025
WhatsApp
Новости

ИИ WhatsApp предоставил пользователю личный номер вместо службы поддержки

18.06.2025
ChatGPT canvas
Новости

ChatGPT добавляет новые форматы файлов для экспорта из Canvas

16.06.2025

Craftium AI — команда, которая пристально следит за развитием генеративного ИИ, применяет его в своем творчестве и охотно делится собственными открытиями.

Навигация

  • Новости
  • Обзоры
  • Подборки
  • Блог

Полезное

  • Правила пользования
  • Политика конфиденциальности
  • Авторские права
  • Обратная связь

Подписывайся на последние новости, полезные советы и гайды по ИИ.

Подписываясь, вы принимаете нашу политику конфиденциальности и условия использования.

Craftium.AICraftium.AI
Следите за нами:
© 2024-2025 Craftium.AI
Подписка
Прокачайся с AI!
Вдохновляйся важными новостями, полезными советами и детальными гайдами получая их прямо на свою почту.

Подписываясь, вы принимаете нашу Политику конфиденциальности и Условия использования.

Welcome Back!

Sign in to your account

Имя пользователя или eMail
Пароль

Забыли пароль?