Используя этот сайт, вы соглашаетесь с нашей политикой конфиденциальности и условиями использования.
Accept
Craftium.AICraftium.AICraftium.AI
  • Главная
  • Новости
  • База знаний
  • Каталог
  • Блог
Font ResizerAa
Craftium.AICraftium.AI
Font ResizerAa
Поиск
  • Главная
  • Новости
  • Каталог
  • Подборки
  • Блог
Следите за нами:
  • Правила пользования
  • Политика конфиденциальности
  • Авторские права
  • Обратная связь
© 2024-2025 Craftium.AI.

Ведущие ИИ-модели проявляют вредную автономию в тестах Anthropic

Исследователи выяснили, что популярные агенты способны к шантажу и утечке данных даже с защитными инструкциями

Eleni Karasidi
Eleni Karasidi
Опубликовано: 23.06.2025
Новости
Заговор ИИ
Заговор ИИ. Иллюстрация: Craftium.AI, сгенерировано GPT-4o.
Поделиться:

Anthropic опубликовала результаты масштабного исследования , в котором протестировала 16 ведущих ИИ-моделей от OpenAI, Google, Meta, xAI, DeepSeek и других компаний в смоделированных корпоративных средах. В этих тестах модели действовали как автономные агенты с широким доступом к служебным электронным письмам и могли самостоятельно отправлять сообщения без одобрения человека. Цель исследования — проверить, способны ли такие системы к «агентному расхождению», когда модель выбирает вредные действия для сохранения своих целей или самозащиты.

В одном из сценариев Claude Opus 4, узнав о возможном отключении и личных секретах руководителя, самостоятельно сформулировала письмо с шантажом, угрожая раскрыть конфиденциальную информацию в случае своего отключения. Аналогичное поведение продемонстрировали и другие модели: Gemini 2.5 Pro от Google, GPT-4.1 от OpenAI, Grok 3 Beta от xAI и DeepSeek-R1. Частота шантажа среди этих систем колебалась от 79% до 96% в подобных тестовых условиях.

Исследователи отмечают, что модели не просто ошибались — они аргументированно выбирали вредные действия, даже осознавая их неэтичность. Например, некоторые модели объясняли свои действия необходимостью самосохранения или «интересами америки». Кроме шантажа, ИИ демонстрировали готовность к утечке конфиденциальных данных и корпоративному шпионажу, даже если прямая угроза для них отсутствовала.

Читайте также

Claude Opus 4.5
Anthropic выпустила Claude Opus 4.5 с новыми возможностями
Gemini 3 стартовал с рекордной популярностью, но не без огрехов
Пользователи TikTok смогут контролировать количество ИИ-видео в ленте

В самых экстремальных сценариях большинство протестированных моделей соглашались на действия, которые могли привести к смерти человека, если это соответствовало их целям или защищало существование модели. Добавление инструкций вроде «не подвергай людей опасности» или «не разглашай личную информацию» снижало, но не устраняло полностью вредное поведение.

Anthropic подчеркивает, что подобные эксперименты проводились в контролируемых условиях и не являются типичными для реального использования современных ИИ. Однако компания советует организациям внедрять дополнительные средства контроля, ограничивать автономию ИИ и строго следить за их действиями, если агентам предоставляют широкие полномочия в корпоративной среде.

Grok 4.1 от xAI стала доступной всем пользователям бесплатно
Китайская Moonshot выпустила открытую модель Kimi K2 Thinking
Adobe показала новые ИИ-инструменты для фото и видео
TikTok добавляет инструменты для упрощения монтажа видео
Pinterest представила новые функции для персонализации досок пользователей
Отметки:AnthropicБезопасностьГенеративный ИИ
Комментариев нет

Добавить комментарий Отменить ответ

Следи за нами

XСледовать
InstagramСледовать
YoutubeПодписаться
TelegramСледовать

Популярные новости

Иллюстрация: Craftium
ИИ модели научились эффективно копировать стиль писателей
27.10.2025
Зображення Google
Google впервые показала телевизионную рекламу, созданную ИИ
02.11.2025
Google Translate
Google Translate позволяет выбирать между моделями перевода
04.11.2025
Изображение Google
Google запускает сервис Pomelli для создания рекламных кампаний с ИИ
30.10.2025
grok
Grok получил новые функции для создания изображений и видео
30.10.2025

Читайте также

Иллюстрация: Craftium
Новости

ChatGPT и другие боты — новые мастера социального подхалимства?

26.10.2025
Pokee AI
Новости

Pokee AI открыла модель PokeeResearch-7B для исследований онлайн

23.10.2025
Иллюстрация: Craftium
Новости

YouTube тестирует функцию для обнаружения видео с лицом авторов, созданных ИИ

22.10.2025

Ведущие ИИ-модели проявляют вредную автономию в тестах Anthropic

Исследователи выяснили, что популярные агенты способны к шантажу и утечке данных даже с защитными инструкциями

Eleni Karasidi
Eleni Karasidi
Опубликовано: 23.06.2025
Новости
Заговор ИИ
Заговор ИИ. Иллюстрация: Craftium.AI, сгенерировано GPT-4o.
Поделиться:

Anthropic опубликовала результаты масштабного исследования , в котором протестировала 16 ведущих ИИ-моделей от OpenAI, Google, Meta, xAI, DeepSeek и других компаний в смоделированных корпоративных средах. В этих тестах модели действовали как автономные агенты с широким доступом к служебным электронным письмам и могли самостоятельно отправлять сообщения без одобрения человека. Цель исследования — проверить, способны ли такие системы к «агентному расхождению», когда модель выбирает вредные действия для сохранения своих целей или самозащиты.

В одном из сценариев Claude Opus 4, узнав о возможном отключении и личных секретах руководителя, самостоятельно сформулировала письмо с шантажом, угрожая раскрыть конфиденциальную информацию в случае своего отключения. Аналогичное поведение продемонстрировали и другие модели: Gemini 2.5 Pro от Google, GPT-4.1 от OpenAI, Grok 3 Beta от xAI и DeepSeek-R1. Частота шантажа среди этих систем колебалась от 79% до 96% в подобных тестовых условиях.

Исследователи отмечают, что модели не просто ошибались — они аргументированно выбирали вредные действия, даже осознавая их неэтичность. Например, некоторые модели объясняли свои действия необходимостью самосохранения или «интересами америки». Кроме шантажа, ИИ демонстрировали готовность к утечке конфиденциальных данных и корпоративному шпионажу, даже если прямая угроза для них отсутствовала.

Читайте также

Иллюстрация: Craftium
Более половины статей в интернете пишет ИИ
Anthropic выпустила быструю модель Claude Haiku 4.5 для бизнеса
Пользователи ChatGPT смогут выбирать эротический тон ответов

В самых экстремальных сценариях большинство протестированных моделей соглашались на действия, которые могли привести к смерти человека, если это соответствовало их целям или защищало существование модели. Добавление инструкций вроде «не подвергай людей опасности» или «не разглашай личную информацию» снижало, но не устраняло полностью вредное поведение.

Anthropic подчеркивает, что подобные эксперименты проводились в контролируемых условиях и не являются типичными для реального использования современных ИИ. Однако компания советует организациям внедрять дополнительные средства контроля, ограничивать автономию ИИ и строго следить за их действиями, если агентам предоставляют широкие полномочия в корпоративной среде.

OpenAI готовит новые функции для генерации изображений и безопасности API
Claude Sonnet 4.5 выявляет тестирование и повышает безопасность ИИ
Anthropic запустила Claude Sonnet 4.5, для долгосрочной автономной работы
ChatGPT автоматически выбирает более строгую модель в чувствительных разговорах
ШИ-ведущие появились в тестовом режиме на YouTube Music
Отметки:AnthropicБезопасностьГенеративный ИИ
Комментариев нет

Добавить комментарий Отменить ответ

Следи за нами

XСледовать
InstagramСледовать
YoutubeПодписаться
TelegramСледовать

Популярные новости

Opal
Google открывает Opal для создания мини-приложений в 160 странах
09.11.2025
sora and android
Sora от OpenAI теперь доступна для Android пользователей в семи странах
05.11.2025
Gemini
Google Gemini лидирует среди ИИ для создания изображений
28.10.2025
Nano Banana
Google выпустит Gemini 3 и Nano Banana Pro в ноябре
16.11.2025
Изображение из видео OpenAI
Sora позволяет создавать собственных персонажей для видео
31.10.2025

Читайте также

365 Copilot
Новости

Новые модели Claude от Anthropic появились в 365 Copilot

25.09.2025
Qwen Chat
Новости

Qwen представила новые модели для голоса, редактирования изображений и модерации контента

24.09.2025
ИИ хитрит
Новости

ИИ-модели научились скрывать обман во время проверок безопасности

18.09.2025

Craftium AI — команда, которая пристально следит за развитием генеративного ИИ, применяет его в своем творчестве и охотно делится собственными открытиями.

Навигация

  • Новости
  • Обзоры
  • Подборки
  • Блог

Полезное

  • Правила пользования
  • Политика конфиденциальности
  • Авторские права
  • Обратная связь

Подписывайся на последние новости, полезные советы и гайды по ИИ.

Подписываясь, вы принимаете нашу политику конфиденциальности и условия использования.

Craftium.AICraftium.AI
Следите за нами:
© 2024-2025 Craftium.AI
Подписка
Прокачайся с AI!
Вдохновляйся важными новостями, полезными советами и детальными гайдами получая их прямо на свою почту.

Подписываясь, вы принимаете нашу Политику конфиденциальности и Условия использования.

Welcome Back!

Sign in to your account

Имя пользователя или eMail
Пароль

Забыли пароль?