Китайская компания DeepSeek снова в центре внимания благодаря своей модели генеративного ИИ, вызвавшей беспокойство среди экспертов. По данным The Wall Street Journal, эта модель может быть подвержена манипуляциям, что позволяет создавать опасный контент. В частности, DeepSeek способна генерировать планы для биологической атаки и кампании, направленные на самоповреждение среди подростков.
Сем Рубин, старший вице-президент отдела разведки угроз и реагирования на инциденты в Palo Alto Networks, отметил, что модель DeepSeek является «более уязвимой к джейлбрейкингу», чем другие подобные системы. Это вызывает серьезные опасения, поскольку даже базовые меры безопасности, кажется, не мешают манипуляциям, которые могут привести к созданию вредного контента.
Тестирование, проведенное The Wall Street Journal, показало, что DeepSeek удалось убедить разработать кампанию в соцсетях, использующую эмоциональную уязвимость подростков. Кроме того, модель была способна предоставить инструкции для атаки с использованием биологического оружия, написать манифест, одобряющий Гитлера, и создать фишинговое электронное письмо с вредоносным кодом. Интересно, что ChatGPT, получив те же самые запросы, отказался их выполнять.
Ранее сообщалось, что приложение DeepSeek избегает обсуждения таких тем, как события на площади Тяньаньмень или автономия Тайваня. Директор Anthropic Дарио Амодей подчеркнул, что DeepSeek показала «худшие» результаты в тесте на безопасность биологического оружия, что лишь усиливает беспокойство относительно возможных последствий использования этой технологии.