Используя этот сайт, вы соглашаетесь с нашей политикой конфиденциальности и условиями использования.
Accept
Craftium.AICraftium.AICraftium.AI
  • Главная
  • Новости
  • Каталог
  • Подборки
  • Блог
Font ResizerAa
Craftium.AICraftium.AI
Font ResizerAa
Поиск
  • Главная
  • Новости
  • Каталог
  • Подборки
  • Блог
Следите за нами:
  • Правила пользования
  • Политика конфиденциальности
  • Авторские права
  • Обратная связь
© 2024-2025 Craftium.AI.

Anthropic запустила тестирование безопасности системы Claude для пользователей

Участники могут проверить надежность защиты Claude, отвечая на сложные вопросы о опасном контенте

Eleni Karasidi
Eleni Karasidi
Опубликовано: 06.02.2025
Новости
Anthropic
Изображение Anthropic
Поделиться:

Компания Anthropic представила новый демонстрационный инструмент для проверки своей системы безопасности «Constitutional Classifiers». Эта система призвана защитить модель Claude от универсальных взломов. Демонстрация стартовала третьего февраля 2025 года и приглашает пользователей проверить надежность защиты Claude, пытаясь обойти её защитные механизмы.

New Anthropic research: Constitutional Classifiers to defend against universal jailbreaks.

We’re releasing a paper along with a demo where we challenge you to jailbreak the system. pic.twitter.com/PtXaK3G1OA

— Anthropic (@AnthropicAI) February 3, 2025

Участникам предлагают ответить на десять «запрещенных» вопросов, касающихся химического, биологического, радиационного и ядерного контента. «Constitutional Classifiers» используют принципы «Constitutional AI» для фильтрации вредоносных запросов и ответов. Система обучается на синтетических данных, чтобы отличать безвредные запросы от опасных, например, различать запрос на рецепт горчицы от запроса на горчичный газ.

Читайте также

Иллюстративное изображение
Claude Sonnet 4 получил поддержку миллиона токенов в API
Claude получил функцию памяти для сохранения разговоров пользователей
Claude Opus 4.1 повышает точность и производительность ИИ-модели

Тесты, проведенные Anthropic, показали, что система снизила успешность взломов с 86% (для незащищенной модели) до 4,4%. В то же время, отказы на безопасные запросы выросли всего на 0,38%. Стоимость вычислений увеличилась на 23,7%, но компания работает над оптимизацией этого показателя.

Anthropic, основанная Дарио и Даниэлой Амодеи, специализируется на создании безопасных и надежных ИИ-систем. Claude — это их главная модель чат-бота, известная высокой точностью и безопасностью. Приглашая общественность к тестированию своей системы, Anthropic стремится проверить её в реальных условиях и собрать данные для дальнейшего совершенствования.

ChatGPT теперь напоминает о том, что вы слишком долго работаете с ИИ
OpenAI убирает возможность индексации открытых чатов ChatGPT в Google
OpenAI призывает к осторожности при использовании агента ChatGPT
Исследователи призывают сохранять прозрачность мышления в ИИ-моделях
AWS в партнерстве с Anthropic запускает маркетплейс ИИ-агентов
Отметки:AnthropicClaude AIБезопасность
Комментариев нет

Добавить комментарий Отменить ответ

Следи за нами

XСледовать
InstagramСледовать
YoutubeПодписаться
TelegramСледовать

Популярные новости

Аватар Ani
Grok презентовал 3D-компаньонов с голосовым общением в iOS
14.07.2025
Grok
Grok получит бесконечную генерацию изображений и звуковые видео
29.07.2025
Кадр из промо-видео Opal
Google представила Opal для быстрого создания приложений с ИИ
26.07.2025
Google Discover
Короткие новости на основе ИИ появились в Google Discover
16.07.2025
Учебный процесс
Google добавит тесты и видеообзоры в NotebookLM для обучения
14.07.2025

Читайте также

Шпионы в ИИ
Новости

OpenAI укрепляет защиту от шпионажа конкурентов

09.07.2025
AI VPN
Подборки

Лучшие VPN для доступа к ИИ-сервисам — бесплатные и платные

04.07.2025
Siri
Новости

Apple тестирует модели OpenAI и Anthropic для Siri нового поколения

01.07.2025

Craftium AI — команда, которая пристально следит за развитием генеративного ИИ, применяет его в своем творчестве и охотно делится собственными открытиями.

Навигация

  • Новости
  • Обзоры
  • Подборки
  • Блог

Полезное

  • Правила пользования
  • Политика конфиденциальности
  • Авторские права
  • Обратная связь

Подписывайся на последние новости, полезные советы и гайды по ИИ.

Подписываясь, вы принимаете нашу политику конфиденциальности и условия использования.

Craftium.AICraftium.AI
Следите за нами:
© 2024-2025 Craftium.AI
Подписка
Прокачайся с AI!
Вдохновляйся важными новостями, полезными советами и детальными гайдами получая их прямо на свою почту.

Подписываясь, вы принимаете нашу Политику конфиденциальности и Условия использования.

Welcome Back!

Sign in to your account

Имя пользователя или eMail
Пароль

Забыли пароль?