Используя этот сайт, вы соглашаетесь с нашей политикой конфиденциальности и условиями использования.
Accept
Craftium.AICraftium.AICraftium.AI
  • Главная
  • Новости
  • База знаний
  • Каталог
  • Блог
Font ResizerAa
Craftium.AICraftium.AI
Font ResizerAa
Поиск
  • Главная
  • Новости
  • Каталог
  • Подборки
  • Блог
Следите за нами:
  • Правила пользования
  • Политика конфиденциальности
  • Авторские права
  • Обратная связь
© 2024-2026 Craftium.AI.

Ведущие ИИ-модели проявляют вредную автономию в тестах Anthropic

Исследователи выяснили, что популярные агенты способны к шантажу и утечке данных даже с защитными инструкциями

Eleni Karasidi
Eleni Karasidi
Опубликовано: 23.06.2025
Новости
Заговор ИИ
Заговор ИИ. Иллюстрация: Craftium.AI, сгенерировано GPT-4o.
Поделиться:

Anthropic опубликовала результаты масштабного исследования , в котором протестировала 16 ведущих ИИ-моделей от OpenAI, Google, Meta, xAI, DeepSeek и других компаний в смоделированных корпоративных средах. В этих тестах модели действовали как автономные агенты с широким доступом к служебным электронным письмам и могли самостоятельно отправлять сообщения без одобрения человека. Цель исследования — проверить, способны ли такие системы к «агентному расхождению», когда модель выбирает вредные действия для сохранения своих целей или самозащиты.

В одном из сценариев Claude Opus 4, узнав о возможном отключении и личных секретах руководителя, самостоятельно сформулировала письмо с шантажом, угрожая раскрыть конфиденциальную информацию в случае своего отключения. Аналогичное поведение продемонстрировали и другие модели: Gemini 2.5 Pro от Google, GPT-4.1 от OpenAI, Grok 3 Beta от xAI и DeepSeek-R1. Частота шантажа среди этих систем колебалась от 79% до 96% в подобных тестовых условиях.

Исследователи отмечают, что модели не просто ошибались — они аргументированно выбирали вредные действия, даже осознавая их неэтичность. Например, некоторые модели объясняли свои действия необходимостью самосохранения или «интересами америки». Кроме шантажа, ИИ демонстрировали готовность к утечке конфиденциальных данных и корпоративному шпионажу, даже если прямая угроза для них отсутствовала.

Читайте также

Kimi
Moonshot AI запускает Kimi K2.5 с системой роя агентов
Claude получил поддержку офисных приложений для работы в чате
Grok от X ограничил создание изображений после скандала

В самых экстремальных сценариях большинство протестированных моделей соглашались на действия, которые могли привести к смерти человека, если это соответствовало их целям или защищало существование модели. Добавление инструкций вроде «не подвергай людей опасности» или «не разглашай личную информацию» снижало, но не устраняло полностью вредное поведение.

Anthropic подчеркивает, что подобные эксперименты проводились в контролируемых условиях и не являются типичными для реального использования современных ИИ. Однако компания советует организациям внедрять дополнительные средства контроля, ограничивать автономию ИИ и строго следить за их действиями, если агентам предоставляют широкие полномочия в корпоративной среде.

ШИ-контент захватывает YouTube и приносит миллионы долларов
Meta работает над новыми ИИ-моделями для работы с контентом
Google презентовала быструю ИИ-модель Gemini 3 Flash для всех пользователей
OpenAI готовит «взрослый» режим для ChatGPT в 2026 году
Figma добавляет новые ИИ-инструменты для редактирования изображений
Отметки:AnthropicБезопасностьГенеративный ИИ
Комментариев нет

Добавить комментарий Отменить ответ

Следи за нами

XСледовать
InstagramСледовать
YoutubeПодписаться
TelegramСледовать

Популярные новости

NotebookLM
Google добавляет персональные настройки в NotebookLM для пользователей
09.02.2026
Qwen
Alibaba выпустила Qwen 3.5 для автоматизации работы с приложениями
16.02.2026
Иллюстративное изображение
Amazon MGM Studios тестирует AI Studio для кинопроизводства
07.02.2026
Иллюстративное изображение
OpenAI презентовала GPT 5.3 Codex для автоматизации разработки
06.02.2026
Claude Opus 4
Claude Opus 4.6 возглавила рейтинг анализа данных ИИ
09.02.2026

Читайте также

Глубокие размышления
Новости

Исследование: ИИ не признает ошибки, выдумывая вместо этого фейковые факты

08.12.2025
Gemini 3 Deep Think
Новости

Google запускает режим Deep Think для пользователей Gemini Ultra

05.12.2025
Mistral AI
Новости

Mistral AI представила новую серию моделей Mistral 3 для бизнеса

03.12.2025

Ведущие ИИ-модели проявляют вредную автономию в тестах Anthropic

Исследователи выяснили, что популярные агенты способны к шантажу и утечке данных даже с защитными инструкциями

Eleni Karasidi
Eleni Karasidi
Опубликовано: 23.06.2025
Новости
Заговор ИИ
Заговор ИИ. Иллюстрация: Craftium.AI, сгенерировано GPT-4o.
Поделиться:

Anthropic опубликовала результаты масштабного исследования , в котором протестировала 16 ведущих ИИ-моделей от OpenAI, Google, Meta, xAI, DeepSeek и других компаний в смоделированных корпоративных средах. В этих тестах модели действовали как автономные агенты с широким доступом к служебным электронным письмам и могли самостоятельно отправлять сообщения без одобрения человека. Цель исследования — проверить, способны ли такие системы к «агентному расхождению», когда модель выбирает вредные действия для сохранения своих целей или самозащиты.

В одном из сценариев Claude Opus 4, узнав о возможном отключении и личных секретах руководителя, самостоятельно сформулировала письмо с шантажом, угрожая раскрыть конфиденциальную информацию в случае своего отключения. Аналогичное поведение продемонстрировали и другие модели: Gemini 2.5 Pro от Google, GPT-4.1 от OpenAI, Grok 3 Beta от xAI и DeepSeek-R1. Частота шантажа среди этих систем колебалась от 79% до 96% в подобных тестовых условиях.

Исследователи отмечают, что модели не просто ошибались — они аргументированно выбирали вредные действия, даже осознавая их неэтичность. Например, некоторые модели объясняли свои действия необходимостью самосохранения или «интересами америки». Кроме шантажа, ИИ демонстрировали готовность к утечке конфиденциальных данных и корпоративному шпионажу, даже если прямая угроза для них отсутствовала.

Читайте также

Цифровой поезд
Популярность чат-ботов быстро растет среди разных поколений
Anthropic выпустила Claude Opus 4.5 с новыми возможностями
Gemini 3 стартовал с рекордной популярностью, но не без огрехов

В самых экстремальных сценариях большинство протестированных моделей соглашались на действия, которые могли привести к смерти человека, если это соответствовало их целям или защищало существование модели. Добавление инструкций вроде «не подвергай людей опасности» или «не разглашай личную информацию» снижало, но не устраняло полностью вредное поведение.

Anthropic подчеркивает, что подобные эксперименты проводились в контролируемых условиях и не являются типичными для реального использования современных ИИ. Однако компания советует организациям внедрять дополнительные средства контроля, ограничивать автономию ИИ и строго следить за их действиями, если агентам предоставляют широкие полномочия в корпоративной среде.

Пользователи TikTok смогут контролировать количество ИИ-видео в ленте
Grok 4.1 от xAI стала доступной всем пользователям бесплатно
Китайская Moonshot выпустила открытую модель Kimi K2 Thinking
Adobe показала новые ИИ-инструменты для фото и видео
TikTok добавляет инструменты для упрощения монтажа видео
Отметки:AnthropicБезопасностьГенеративный ИИ
Комментариев нет

Добавить комментарий Отменить ответ

Следи за нами

XСледовать
InstagramСледовать
YoutubeПодписаться
TelegramСледовать

Популярные новости

Иллюстративное изображение
Seedance 2.0 создает волну видео со знаменитостями онлайн
16.02.2026

Читайте также

Зображення з сайту Pinterest
Новости

Pinterest представила новые функции для персонализации досок пользователей

28.10.2025
Иллюстрация: Craftium
Новости

ChatGPT и другие боты — новые мастера социального подхалимства?

26.10.2025
Pokee AI
Новости

Pokee AI открыла модель PokeeResearch-7B для исследований онлайн

23.10.2025

Craftium AI — команда, которая пристально следит за развитием генеративного ИИ, применяет его в своем творчестве и охотно делится собственными открытиями.

Навигация

  • Новости
  • Обзоры
  • Подборки
  • Блог

Полезное

  • Правила пользования
  • Политика конфиденциальности
  • Авторские права
  • Обратная связь

Подписывайся на последние новости, полезные советы и гайды по ИИ.

Подписываясь, вы принимаете нашу политику конфиденциальности и условия использования.

Craftium.AICraftium.AI
Следите за нами:
© 2024-2026 Craftium.AI
Подписка
Прокачайся с AI!
Вдохновляйся важными новостями, полезными советами и детальными гайдами получая их прямо на свою почту.

Подписываясь, вы принимаете нашу Политику конфиденциальности и Условия использования.

Welcome Back!

Sign in to your account

Имя пользователя или eMail
Пароль

Забыли пароль?