Компания Meta опубликовала документ под названием «Frontier AI Framework», в котором очертила свою политику по выпуску высокопроизводительных систем искусственного интеллекта. Meta определяет два типа систем, которые считает слишком рискованными для выпуска: системы «высокого риска» и «критического риска». Первые могут облегчить выполнение атак, в то время как вторые могут привести к катастрофическим последствиям, которые невозможно смягчить.
В документе отмечено, что оценка риска систем проводится на основе мнений внутренних и внешних экспертов, а не с использованием количественных метрик. Meta будет ограничивать доступ к системам «высокого риска» до момента снижения риска до умеренного уровня. Если система классифицируется как «критический риск», разработка приостанавливается до внедрения необходимых средств защиты.
Этот шаг Meta является ответом на критику открытого подхода компании к разработке систем. Хотя Meta пытается сделать свои технологии доступными, она сталкивается с рисками, которые могут быть использованы в опасных целях. Например, одна из моделей, Llama, была использована для разработки чат-бота оборонного назначения враждебной страной.
Meta подчеркивает важность баланса между выгодами и рисками при разработке и внедрении передовых технологий ИИ. Компания верит, что возможно обеспечить обществу преимущества от технологий, сохраняя при этом приемлемый уровень риска.