Один из крупнейших онлайн-ресурсов знаний Википедия, сталкивается с новым вызовом — некорректным контентом, созданным ИИ. С появлением больших языковых моделей, таких как GPT от OpenAI, редакторы вынуждены тратить все больше времени на удаление текстов, которые выглядят правдоподобно, но часто содержат ошибки или являются недостоверными. Ответ на это — проект «WikiProject AI Cleanup», инициатива редакторов, которая направлена на защиту платформы от таких вмешательств.
Группа использует фразы и стилистические особенности, характерные для генеративных моделей, чтобы находить несоответствующий контент.
Мы обнаружили, что некоторые статьи имели признаки текстов, созданных ИИ, поэтому решили систематизировать наши усилия и разработать методы для их выявления.
Илиас Лебле, один из основателей проекта
Проблема заключается не только в грамматических ошибках или искусственном стиле, но и в неправильных источниках или даже полностью выдуманных фактах. Это создает угрозу для качества информации, на которую пользователи полагаются ежедневно. Одним из ярких примеров была статья о Chester Mental Health Center, в которой содержались выразительные слова: «На момент последнего обновления данных в январе 2022 года…».
Редакторы пытаются бороться с этим явлением с помощью существующих правил Википедии, требующих наличия надежных источников для каждого факта. Однако новые вызовы заставляют искать инновационные подходы к выявлению таких статей и предотвращению их влияния на читателей.