Создан алгоритм справедливого ИИ

«Торжество Истины и Справедливости», Ханс фон Аахен, 1598
«Торжество Истины и Справедливости», Ханс фон Аахен, 1598

Паноптикум – это еще не самая страшная антиутопия будущего ИИ.

Еще хуже мир, лишенный справедливости. Ценнейшего (наряду со свободой и любовью), что есть у человека.

Большинство ошибочно полагает, что главные проблемы ИИ — отъем рабочих мест и бунт машин. Но это не так. Самой большой проблемой (не будущего, а уже настоящего), становится предвзятость ИИ, способная, в перспективе, лишить мир справедливости.

Да-да! А вы как хотели, чтоб интеллект был, а субъективных предубеждений и стереотипов у него не было?

Увы, так не бывает.

Основа современного ИИ — машинное обучение. Алгоритмы с минимальной помощью людей учатся на огромных объемах данных классифицировать объекты по их характеристикам. Применяя это умение при принятии решений, компьютеры заменяют людей во все новых и новых областях от рекомендаций до анализа медицинских снимков.

Исключение человека из процесса принятия решений устраняет проблему когнитивных искажений людей, всегда присутствующих из-за наличия у нас субъективных предубеждений и стереотипов.

Но на смену им приходят субъективные предубеждения алгоритмов машинного обучения.
  • Их источник — «алгоритмический опыт», накопленный при анализе учебных наборов данных в процессе обучения.
  • Их результат — принимаемые алгоритмом решения, дискриминирующие ту или иную категорию людей. А это ни что иное, как несправедливость, порождаемая ИИ.

Например, если из данных, на которых обучался алгоритм оценки кадров при найме, следует, что мужчины продуктивнее женщин, машина, скорее всего, «узнает» эту разницу и будет предпочитать кандидатов-мужчин. А кадровики при этом не смогут распознать это дискриминационное предубеждение машины, будучи уверены, что

  • уж машина то, точно, не может иметь предубеждений,
  • мужчин она отбирает потому, что таковы лучшие кандидаты (селяви).

Подобная несправедливость (а это точно она, поскольку дискриминирует вполне конкретных хороших кандидатов из-за предубеждений машины) теперь повсюду:

— от оценки кредитного рейтинга заемщика до формирования списков подозреваемых;

— повсюду, где так или иначе фигурируют пол, возраст, расовая принадлежность, сексуальная ориентация и т.д.

И это только сейчас. А завтра, — в «светлом будущем» а ля китайского паноптикума — обучающиеся алгоритмы будут учитывать такое, о чем люди и не предполагают: от характеристик поведения в соцсетях до кулинарных пристрастий людей. И черт их еще знает, какие корреляции алгоритмы распознают при обучении на очередных больших данных.

Этот вал машинных предубеждений будет нарастать, порождая тотальную несправедливость во всем, где решение принимается машинами.

А тех, кто думает, что подобное можно устранить, просто убрав при оценке конкретный критерий, спешу разочаровать. Это не поможет.

— Согласно кейсу Верховного суда США 1971 года Griggs v. Duke Power Co., 401 U.S., тесты ущемляют заявителя определенной расы и незаконны, даже если решение в них не было четко определено на основе расы.

— А убрать вообще все (пол, средний бал и т.д.) невозможно, поскольку нечего будут анализировать.

Теперь про Good News.

Разработан алгоритм, решающий эту проблему. Он обеспечивает соблюдение федеральных законов о недискриминации и позволяет строго контролировать уровень справедливости.

За кажущимся простым решением — ручным заданием максимального уровня предвзятости алгоритма — 10 страниц крутой математики.

Этот алгоритм прорывной, поскольку позволяет обеспечивать компромисс точности и дискриминации:

  • для обоих классов задач: классификация и регрессия;
  • для обоих видов параметров: дискретные (пол, раса …) и числовые (типа возраста).
Похоже, это 1е качественное, а не количественное преимущество ИИ перед людьми.

_________________________

Хотите читать подобные публикации? Подписывайтесь на мой канал в Телеграме, Medium, Яндекс-Дзене

Считаете, что это стоит прочесть и другим? Дайте им об этом знать, кликнув на иконку “понравилось”