Исследователи всё чаще предупреждают: искусственный интеллект не создаёт предвзятость сам по себе — он перенимает её из среды, в которой обучается. И чем шире ИИ внедряется в найм сотрудников, банковскую сферу, обслуживание, образование и судебную систему, тем острее становится вопрос о том, можно ли вообще сделать такие системы по-настоящему справедливыми.
Главная проблема заключается в том, что у понятия «справедливость» нет универсального определения. В финансовой сфере под справедливостью могут понимать равный доступ к кредитам, в уголовном правосудии — минимизацию дискриминации отдельных групп, а в образовании — равные шансы на успех. Для алгоритмов эти принципы приходится переводить в математические метрики, но каждая из них неизбежно отражает человеческие представления о том, какие различия допустимы, а какие нет.
Ситуацию осложняет сам характер данных, на которых обучаются модели. ИИ анализирует исторические решения людей и организаций, а значит автоматически впитывает существующие социальные перекосы. Если компания годами продвигала на руководящие позиции преимущественно мужчин, алгоритм может решить, что именно такие кандидаты «наиболее успешны», даже если пол напрямую не используется как параметр.
Похожая проблема возникает в банковских системах. Люди из социально неблагополучных групп часто имеют менее успешную или полную кредитную историю или более низкий официальный доход из-за прежней дискриминации. Для модели это может выглядеть как повышенный финансовый риск, хотя в реальности связь далеко не всегда существует. В результате алгоритм начинает воспроизводить старое неравенство под видом объективного анализа.

Учёные подчёркивают, что попытка сделать систему справедливой по одному критерию нередко нарушает другой. Например, алгоритм может одинаково точно оценивать вероятность невозврата кредита для разных групп населения, но при этом чаще ошибочно отказывать одной группе и чаще выдавать рискованные займы другой. Формально метрики будут соблюдены, но последствия для людей окажутся неравными.
Отдельной проблемой остаются пересекающиеся группы. Система может демонстрировать «справедливость» по отношению к женщинам в целом и отдельно к этническим меньшинствам, но одновременно систематически дискриминировать, например, пожилых женщин из национальных меньшинств. Такие группы обычно плохо представлены в данных, поэтому ошибки в их отношении теряются в общей статистике и остаются незаметными.
Исследователи считают, что проблему невозможно решить исключительно техническими средствами. Даже самые совершенные алгоритмы работают внутри социальных и политических систем, где уже существуют неравенство и дисбаланс власти. Поэтому всё больше экспертов выступают за участие в разработке ИИ не только инженеров, но и самих людей, на которых влияют автоматизированные решения, особенно представителей уязвимых сообществ.
С развитием больших языковых моделей задача становится ещё сложнее. Такие системы обучаются на гигантских массивах текстов из интернета, где уже содержатся стереотипы, токсичность и культурные перекосы. Из-за этого справедливость в решениях ИИ перестаёт быть разовой технической задачей и превращается в постоянный процесс контроля, пересмотра и общественного обсуждения.
Авторы подчёркивают: вместо вопроса «справедлив ли ИИ?» правильнее спрашивать — «для кого именно он справедлив, при каких условиях и кто несёт ответственность за последствия его решений».