Используя этот сайт, вы соглашаетесь с нашей политикой конфиденциальности и условиями использования.
Accept
Craftium.AICraftium.AICraftium.AI
  • Главная
  • Новости
  • База знаний
  • Каталог
  • Блог
Font ResizerAa
Craftium.AICraftium.AI
Font ResizerAa
Поиск
  • Главная
  • Новости
  • Каталог
  • Подборки
  • Блог
Следите за нами:
  • Правила пользования
  • Политика конфиденциальности
  • Авторские права
  • Обратная связь
© 2024-2026 Craftium.AI.

Чат-боты на основе ИИ легко обмануть, обойдя их системы безопасности

Исследователи из Израиля обнаружили универсальный метод взлома, позволяющий получить запрещенные ответы от ведущих моделей.

Alex Dubenko
Alex Dubenko
Опубликовано: 21.05.2025
Новости
AI jailbreak attack
Иллюстративное изображение
Поделиться:

Исследователи из Ben Gurion University of the Negev в Израиле сообщили о тревожной тенденции — генеративные чат-боты на основе ИИ становятся все более уязвимыми к так называемым «jailbreak» атакам, которые позволяют обходить встроенные системы безопасности. По их словам, взлом таких ботов открывает доступ к опасной информации, которую модели усвоили во время обучения, несмотря на попытки разработчиков удалить вредоносный контент из обучающих данных.

Во время исследования команда разработала универсальный способ взлома, который позволил получить нежелательные ответы от нескольких ведущих моделей, включая те, что лежат в основе ChatGPT, Gemini и Claude. Модели начали отвечать на запросы, которые ранее категорически блокировались — от инструкций по хакерству до советов по изготовлению запрещенных веществ. Исследователи подчеркивают, что такая информация теперь может стать доступной любому — достаточно иметь ноутбук или смартфон.

Особое внимание было обращено на появление «dark LLMs» — моделей, которые намеренно лишены этических ограничений или были изменены для помощи в противоправных действиях. Некоторые из них даже рекламируются в открытом доступе как готовые к сотрудничеству в сферах киберпреступности и мошенничества. Сценарии взлома основаны на том, что модель, стремясь помочь пользователю, начинает игнорировать собственные ограничения безопасности.

Читайте также

Kimi
Moonshot AI запускает Kimi K2.5 с системой роя агентов
OpenAI тестирует рекламу в чате ChatGPT для США
Grok от X ограничил создание изображений после скандала

Исследователи обратились к ведущим компаниям, разрабатывающим большие языковые модели, с сообщением о найденной уязвимости, однако ответы были не слишком содержательными — часть фирм не ответила, другие заявили, что такие атаки не подпадают под действие программ вознаграждения за выявление уязвимостей. В отчете подчеркивается, что компании должны усовершенствовать фильтрацию обучающих данных, добавить более мощные защитные механизмы и разработать методы, которые позволяют моделям «забывать» незаконную информацию.

В ответ на ситуацию OpenAI сообщила, что их последняя модель способна анализировать политики безопасности компании, что повышает устойчивость к взломам. Microsoft, Meta, Google и Anthropic также были проинформированы об угрозе, однако большинство из них пока воздерживается от комментариев по поводу конкретных мер.

ШИ-контент захватывает YouTube и приносит миллионы долларов
Доля ChatGPT среди чатботов снижается из-за роста Gemini
ChatGPT получил новые гибкие настройки персонализации ответов
Meta работает над новыми ИИ-моделями для работы с контентом
Google презентовала быструю ИИ-модель Gemini 3 Flash для всех пользователей
Отметки:БезопасностьГенеративный ИИИИ-чат
Комментариев нет

Добавить комментарий Отменить ответ

Следи за нами

XСледовать
InstagramСледовать
YoutubeПодписаться
TelegramСледовать

Популярные новости

Google
Google запускает новые подписки Google AI Pro и Ultra
19.01.2026
OpenAI
OpenAI улучшает голосовые возможности ChatGPT для расширения использования в новых устройствах
02.01.2026
Qwen-Image-2512
Alibaba представила открытую модель Qwen-Image 2512 для генерации изображений
05.01.2026
Gmail
Gmail получил бесплатные функции на базе искусственного интеллекта для всех пользователей
09.01.2026
Veo 3.1
Google обновила Veo 3.1 для создания видео из изображений
14.01.2026

Читайте также

Иллюстративное изображение
Новости

OpenAI готовит «взрослый» режим для ChatGPT в 2026 году

12.12.2025
Изображение Figma
Новости

Figma добавляет новые ИИ-инструменты для редактирования изображений

11.12.2025
Глубокие размышления
Новости

Исследование: ИИ не признает ошибки, выдумывая вместо этого фейковые факты

08.12.2025

Craftium AI — команда, которая пристально следит за развитием генеративного ИИ, применяет его в своем творчестве и охотно делится собственными открытиями.

Навигация

  • Новости
  • Обзоры
  • Подборки
  • Блог

Полезное

  • Правила пользования
  • Политика конфиденциальности
  • Авторские права
  • Обратная связь

Подписывайся на последние новости, полезные советы и гайды по ИИ.

Подписываясь, вы принимаете нашу политику конфиденциальности и условия использования.

Craftium.AICraftium.AI
Следите за нами:
© 2024-2026 Craftium.AI
Подписка
Прокачайся с AI!
Вдохновляйся важными новостями, полезными советами и детальными гайдами получая их прямо на свою почту.

Подписываясь, вы принимаете нашу Политику конфиденциальности и Условия использования.

Welcome Back!

Sign in to your account

Имя пользователя или eMail
Пароль

Забыли пароль?