Какие преступления совершает ИИ

Какие преступления совершает ИИ

Искусственный интеллект в его нынешнем состоянии несправедлив, легко поддается атакам и, как известно, трудно поддается контролю. Эксперты в области ИТ составили список технологий, которые противоречат этике или нарушают права людей. Например, ИИ:

  • Угрожает безопасности людей и вмешивается в частную жизнь. Например, один ИИ-сервис умеет с большой точностью определить, является мужчина ли геем, основываясь на фотографии лица. В свободном доступе эта технология может быть использована в самых нехороших целях.
  • Ущемляет людей, устраивающихся на работу. Так, DeepGestalt идентифицирует некоторые редкие генетические заболевания, используя фотографию лица пациента. Это может привести к тому, что работодатели будут потенциально анализировать изображения лиц и отказывать в работе людям, у которых уже есть заболевания или у которых возникнут медицинские осложнения.  
  • Оскорбляет целые нации. Чат-бот Microsoft под названием Tay целый день анализировал Твиттер, обучаясь на твитах пользователей, и в итоге начал распространять антисемитские сообщения.
  • Предвзято относится к внешности. Зафиксированы случаи, когда программа распознавания изображений Google распознавала лица некоторых чернокожих людей как горилл. А программа Rekognition от Amazon в 31% случаев отмечала женщин с темной кожей как мужчин. 
  • Проводит сексистский рекрутинг. Инструменты рекрутинга на основе ИИ, вроде HireVue или внутреннего программного обеспечения Amazon, сканирует данные соискателей и их резюме, чтобы определить, стоит ли их нанимать. Алгоритм Amazon быстро научился отдавать предпочтение кандидатам-мужчинам, а не женщинам, исключая резюме, включающие слово «женские», например «капитан женского шахматного клуба». 
  • Запугивает невинных. С помощью разработок компании DataRobot национальная безопасность будет распознавать террористов в зарубежных аэропортах. Алгоритм определит террориста на основе личных данных пассажиров, включая информацию о багаже, маршруте и продолжительности пребывания в стране прилета. Но пока специалисты опасаются, что ИИ может ложно обвинять невинных людей в причастности к терроризму. 
  • Способствует преследованию этнических меньшинств. Китайские стартапы создали алгоритмы, которые позволяют правительству Китайской Народной Республики автоматически отслеживать уйгурский народ, чтобы подвергнуть его репрессиям.

Источник GitHub

Понравилось? Лайкните пост и подпишитесь на нас :)

Мы интересно пишем про новые технологии и бизнес, наш телеграм-канал — @dtiAlgo