Компания OpenAI провела исследование, направленное на оценку того, как имена пользователей могут влиять на ответы, которые предоставляет ChatGPT. Эта работа направлена на повышение уровня беспристрастности в работе моделей, в том числе путем уменьшения потенциально вредных стереотипов, которые могут возникать через подсознательные ассоциации, связанные с именами.
В ходе исследования команда использовала специально настроенную LMRA, чтобы определить, есть ли разница в качестве ответов, в том числе в таких сферах, как образование, бизнес и развлечения. Исследование показало, что при использовании имен иногда появляются различия в тоне и детализации ответов, однако менее 1% таких расхождений были связаны со стереотипами.
Выявленные различия часто незначительны, хотя и могут иметь весомое значение в общем контексте.
Несмотря на то, что расхождения являются редкими и маловероятными, что пользователи заметят их в повседневном использовании, это исследование поможет OpenAI продолжать совершенствовать свои модели и бороться со стереотипами на разных уровнях взаимодействия. Исследователи планируют углубить свое изучение предвзятостей не только по именам, но и другим факторам, таким как языковые или культурные различия.