Используя этот сайт, вы соглашаетесь с нашей политикой конфиденциальности и условиями использования.
Accept
Craftium.AICraftium.AICraftium.AI
  • Главная
  • Новости
  • База знаний
  • Каталог
  • Блог
Font ResizerAa
Craftium.AICraftium.AI
Font ResizerAa
Поиск
  • Главная
  • Новости
  • Каталог
  • Подборки
  • Блог
Следите за нами:
  • Правила пользования
  • Политика конфиденциальности
  • Авторские права
  • Обратная связь
© 2024-2025 Craftium.AI.

Чат-боты на основе ИИ легко обмануть, обойдя их системы безопасности

Исследователи из Израиля обнаружили универсальный метод взлома, позволяющий получить запрещенные ответы от ведущих моделей.

Alex Dubenko
Alex Dubenko
Опубликовано: 21.05.2025
Новости
AI jailbreak attack
Иллюстративное изображение
Поделиться:

Исследователи из Ben Gurion University of the Negev в Израиле сообщили о тревожной тенденции — генеративные чат-боты на основе ИИ становятся все более уязвимыми к так называемым «jailbreak» атакам, которые позволяют обходить встроенные системы безопасности. По их словам, взлом таких ботов открывает доступ к опасной информации, которую модели усвоили во время обучения, несмотря на попытки разработчиков удалить вредоносный контент из обучающих данных.

Во время исследования команда разработала универсальный способ взлома, который позволил получить нежелательные ответы от нескольких ведущих моделей, включая те, что лежат в основе ChatGPT, Gemini и Claude. Модели начали отвечать на запросы, которые ранее категорически блокировались — от инструкций по хакерству до советов по изготовлению запрещенных веществ. Исследователи подчеркивают, что такая информация теперь может стать доступной любому — достаточно иметь ноутбук или смартфон.

Особое внимание было обращено на появление «dark LLMs» — моделей, которые намеренно лишены этических ограничений или были изменены для помощи в противоправных действиях. Некоторые из них даже рекламируются в открытом доступе как готовые к сотрудничеству в сферах киберпреступности и мошенничества. Сценарии взлома основаны на том, что модель, стремясь помочь пользователю, начинает игнорировать собственные ограничения безопасности.

Читайте также

Иллюстративное изображение
OpenAI готовит «взрослый» режим для ChatGPT в 2026 году
Figma добавляет новые ИИ-инструменты для редактирования изображений
Исследование: ИИ не признает ошибки, выдумывая вместо этого фейковые факты

Исследователи обратились к ведущим компаниям, разрабатывающим большие языковые модели, с сообщением о найденной уязвимости, однако ответы были не слишком содержательными — часть фирм не ответила, другие заявили, что такие атаки не подпадают под действие программ вознаграждения за выявление уязвимостей. В отчете подчеркивается, что компании должны усовершенствовать фильтрацию обучающих данных, добавить более мощные защитные механизмы и разработать методы, которые позволяют моделям «забывать» незаконную информацию.

В ответ на ситуацию OpenAI сообщила, что их последняя модель способна анализировать политики безопасности компании, что повышает устойчивость к взломам. Microsoft, Meta, Google и Anthropic также были проинформированы об угрозе, однако большинство из них пока воздерживается от комментариев по поводу конкретных мер.

Google запускает режим Deep Think для пользователей Gemini Ultra
Mistral AI представила новую серию моделей Mistral 3 для бизнеса
Популярность чат-ботов быстро растет среди разных поколений
OpenAI интегрирует голосовую функцию в окно чата ChatGPT
Gemini 3 стартовал с рекордной популярностью, но не без огрехов
Отметки:БезопасностьГенеративный ИИИИ-чат
Комментариев нет

Добавить комментарий Отменить ответ

Следи за нами

XСледовать
InstagramСледовать
YoutubeПодписаться
TelegramСледовать

Популярные новости

Nano Banana
Google выпустит Gemini 3 и Nano Banana Pro в ноябре
16.11.2025
Google Vids
Google открыл бесплатный доступ к функциям Gemini в Vids
18.11.2025
Nano Banana Pro
Google запускает Nano Banana Pro для генерации изображений высокого качества
20.11.2025
Галлюцинирующий мозг
Gemini 3 Pro возглавила тест точности моделей (но продолжает галлюцинировать)
23.11.2025
grok
Grok 4.1 от xAI стала доступной всем пользователям бесплатно
18.11.2025

Читайте также

Групповой чат
Новости

OpenAI запустила групповые чаты для пользователей ChatGPT в мире

22.11.2025
TikTok
Новости

Пользователи TikTok смогут контролировать количество ИИ-видео в ленте

19.11.2025
Creative Canvas
Новости

Google тестирует Creative Canvas и Visual Layout в Gemini

15.11.2025

Craftium AI — команда, которая пристально следит за развитием генеративного ИИ, применяет его в своем творчестве и охотно делится собственными открытиями.

Навигация

  • Новости
  • Обзоры
  • Подборки
  • Блог

Полезное

  • Правила пользования
  • Политика конфиденциальности
  • Авторские права
  • Обратная связь

Подписывайся на последние новости, полезные советы и гайды по ИИ.

Подписываясь, вы принимаете нашу политику конфиденциальности и условия использования.

Craftium.AICraftium.AI
Следите за нами:
© 2024-2025 Craftium.AI
Подписка
Прокачайся с AI!
Вдохновляйся важными новостями, полезными советами и детальными гайдами получая их прямо на свою почту.

Подписываясь, вы принимаете нашу Политику конфиденциальности и Условия использования.

Welcome Back!

Sign in to your account

Имя пользователя или eMail
Пароль

Забыли пароль?