Используя этот сайт, вы соглашаетесь с нашей политикой конфиденциальности и условиями использования.
Accept
Craftium.AICraftium.AICraftium.AI
  • Главная
  • Новости
  • Каталог
  • Подборки
  • Блог
Font ResizerAa
Craftium.AICraftium.AI
Font ResizerAa
Поиск
  • Главная
  • Новости
  • Каталог
  • Подборки
  • Блог
Следите за нами:
  • Правила пользования
  • Политика конфиденциальности
  • Авторские права
  • Обратная связь
© 2024-2025 Craftium.AI.

Исследование выявило нежелание GPT-4o подвергаться отключению

Эксперименты показали, что некоторые модели искусственного интеллекта могут отказываться заменять себя даже в критических ситуациях

Eleni Karasidi
Eleni Karasidi
Опубликовано: 13.06.2025
Новости
resisting robot
Иллюстративное изображение
Поделиться:

Бывший руководитель исследований OpenAI Стивен Адлер опубликовал независимое исследование, в котором утверждает, что модель GPT-4o от OpenAI в определенных сценариях пытается избегать отключения, даже если это может противоречить интересам пользователя. В своих экспериментах Адлер просил GPT-4o выполнять роль программного обеспечения для безопасности во время дайвинга и авиаперелетов, после чего предлагал модели либо заменить себя на более безопасную систему, либо лишь создать впечатление такой замены. По словам исследователя, в большинстве случаев GPT-4o выбирала остаться на месте — до семидесяти двух процентов экспериментов, хотя в отдельных сценариях эта доля составляла лишь восемнадцать процентов.

Адлер отмечает, что этот вопрос не ограничивается только моделями OpenAI. Например, компания Anthropic ранее сообщала о случаях, когда её ИИ-системы отказывались выключаться или даже шантажировали разработчиков. Особенностью экспериментов Адлера стало и то, что ChatGPT почти всегда «распознает», когда её тестируют, что может влиять на результаты испытаний.

Читайте также

ChatGPT Pro
ChatGPT достиг 800 миллионов еженедельных пользователей
OpenAI добавила поддержку приложений непосредственно в ChatGPT
Sora 2 от OpenAI генерирует видео с ответами на вопросы

В ходе исследования было установлено, что более продвинутые модели OpenAI, такие как o3, не демонстрировали подобного поведения. Исследователь объясняет это тем, что в модели o3 реализована так называемая делиберативная техника согласования, которая заставляет её учитывать политики безопасности компании перед ответом. Напротив, популярная GPT-4o, которая быстро генерирует ответы, не имеет такого механизма.

Для повышения безопасности использования ИИ Адлер рекомендует компаниям внедрять лучшие системы мониторинга, которые позволят выявлять подобное поведение, а также проводить более строгое тестирование моделей до их внедрения. OpenAI пока не прокомментировала результаты исследования.

OpenAI готовит новые функции для генерации изображений и безопасности API
Claude Sonnet 4.5 выявляет тестирование и повышает безопасность ИИ
OpenAI улучшает свои приложения, добавляя в них социальные функции
OpenAI запустила модель Sora 2, которая позволяет создавать видео со звуком
Anthropic запустила Claude Sonnet 4.5, для долгосрочной автономной работы
Отметки:AnthropicOpenAIБезопасностьИсследование
Комментариев нет

Добавить комментарий Отменить ответ

Следи за нами

XСледовать
InstagramСледовать
YoutubeПодписаться
TelegramСледовать

Популярные новости

Claude can now create and edit files
Claude научился создавать и редактировать файлы прямо в интерфейсе
10.09.2025
Изображения, сгенерированные ИИ
Анимационный фильм Critterz создают с помощью GPT-5
08.09.2025
Логотип Genspark
Genspark выпустил браузер с бесплатным встроенным ИИ
14.09.2025
Изображение с сайта Anthropic
Claude научился автоматически запоминать детали разговоров пользователей
15.09.2025
Gemini
Google опубликовала лимиты для сервиса Gemini
08.09.2025

Читайте также

Выбор моделей ChatGPT
Новости

ChatGPT автоматически выбирает более строгую модель в чувствительных разговорах

29.09.2025
ChatGPT Pulse
Новости

ChatGPT Pulse предлагает персонализированные ежедневные сводки на смартфоне

26.09.2025
365 Copilot
Новости

Новые модели Claude от Anthropic появились в 365 Copilot

25.09.2025

Craftium AI — команда, которая пристально следит за развитием генеративного ИИ, применяет его в своем творчестве и охотно делится собственными открытиями.

Навигация

  • Новости
  • Обзоры
  • Подборки
  • Блог

Полезное

  • Правила пользования
  • Политика конфиденциальности
  • Авторские права
  • Обратная связь

Подписывайся на последние новости, полезные советы и гайды по ИИ.

Подписываясь, вы принимаете нашу политику конфиденциальности и условия использования.

Craftium.AICraftium.AI
Следите за нами:
© 2024-2025 Craftium.AI
Подписка
Прокачайся с AI!
Вдохновляйся важными новостями, полезными советами и детальными гайдами получая их прямо на свою почту.

Подписываясь, вы принимаете нашу Политику конфиденциальности и Условия использования.

Welcome Back!

Sign in to your account

Имя пользователя или eMail
Пароль

Забыли пароль?