Можно ли доверять технологиям AI

20 December 2018

В прошлом году, программы искусственного интеллекта AlphaGo и Libratus одержали победу над чемпионами по игре в Go и Poker. И хотя это позволило продемонстрировать как далеко продвинулся в последние годы AI, многие, по-прежнему, скептически относятся к этой технологии из-за ее непредсказуемости.

Источник: cryptos.tv
Источник: cryptos.tv

Это винтовки или вертолеты?

К примеру, слегка подправив фотографию винтовок, исследовательская группа MIT, обманула API Google Cloud Vision, что позволило ошибочно идентифицировать их как вертолеты.

Источник: www.f3nws.com
Источник: www.f3nws.com

Подобный прием, известен как неблагоприятные образы (adverse samples), который влияет на распознавание изображений компьютером, путем применения средств невидимых для человеческого глаза. В прошлом такие примеры работали только если хакеры знали основную механику целевой компьютерной системы. Однако, команде MIT удалось инициировать ошибочную классификацию изображений, без доступа к системной информации.

Исследователи обнаружили, что используя невидимые краски или клейкую ленту, на дорожных знаках, они могут обмануть автопилот автомобиля, что приводит к неверному распознаванию этих знаков. К примеру, знак «стоп» измененный словами «любовь» и «ненависть», вводил в заблуждение систему машинного обучения автомобиля, который распознавал его как знак «Ограничение скорости 45» в 100% тестовых случаев.

Пока существует возможность обмана системы, ее рано внедрять в повседневную жизнь. Представьте что кто-то сможет организовать такую массовую атаку?

Свой взгляд на все у AI Google Photos

Google Photos включает в себя малоизвестную функцию AI, которая может автоматически обнаруживать изображения с одинаковыми фонами / сценами и предлагать объединить их в одно панорамное изображение. В январе, пользователь Reddit «MalletsDarker», опубликовал три фотографии сделанные на горнолыжном курорте: две из них были пейзажами, а другой снимок - его друга. Когда Google Photos объединил эти фото, произошла странная вещь, голова его друга, превратилась в одну из горных пик, выглядывающую из-за леса.

Источник: imgur.com
Источник: imgur.com

Эта фотография вошла в десятку лучших сабреддитов и получила 202 тыс. лайков. Пользователи приветствовали алгоритм для работы с изображениями, но, в данном случае, он попал под насмешки из-за отсутствия основ композиции. Согласитесь, результат получился весьма забавным!

Гендерная дискриминация Amazon HR AI

В период с 2014 по 2017 год Amazon HR использовала программное обеспечение для рекрутинга, с поддержкой AI, призванное помочь в рассмотрении резюме и в выработке дальнейших рекомендаций. Однако выяснилось, что программное обеспечение было более лояльным к кандидатам-мужчинам, поскольку его модель была обучена на базе резюме поданных Amazon за последнее десятилетие, тогда было нанято гораздо больше мужчин.

Источник: pixabay.com
Источник: pixabay.com

По полученным данным, программа фильтровала резюме, которые содержат слово «женщины» или подразумевало, что соискатель была женщиной, например, потому, что в анкете указана учеба в женском колледже. С тех пор, Amazon отказалась от данного программного обеспечения. Компания не отрицает использование AI, но утверждает, что программа никогда не применялась для оценки кандидатов.

Похоже с внедрением AI, некоторые фундаментальные вопросы останутся открытыми, так как принятые решения будут основаны на прошлом опыте.

Можно ли доверить свое здоровье AI?

Технологический гигант IBM давно занимается изучением искусственного интеллекта и интеграцией его возможностей в широком спектре областей, включая здравоохранение. В 2013 году компания внедрила первое коммерческое приложение Watson для онкологического центра Memorial Sloan Kettering, который начал применять систему, для рекомендации программ лечения пациентов больных раком.

Источник: www.samacharnama.com
Источник: www.samacharnama.com

Watson - это компьютерная система, на базе когнитивных вычислений, способная отвечать на поставленные вопросы, которые заданы на естественном языке. Система сочетает в себе искусственный интеллект ( AI ) и сложное аналитическое программное обеспечение.

Но, не все прошло так гладко, как ожидалось. Некоторые врачи жаловались, что система выдавала неправильные рекомендации, которые могут вызвать серьезные и даже смертельные последствия.

За последние пять лет компания заключила партнерские отношения с больницами и исследовательскими центрами, такими как как Cleveland Clinic, Maine Center for Cancer Medicine и Westmed Medical Group, которые также внедрили инструменты Watson.

Проведя годы в проекте без значительных улучшений, IBM сократила штат Watson Health и уволила более половины сотрудников подразделения.

Не каждому врачу можно довериться, не говоря уже об AI. Ведь в случае врачебной ошибки, причиной смерти всегда указывается та болезнь, в связи с которой пациент обратился к врачу, даже если она, сама по себе, не была фатальной и не привела бы к смерти.

По оценке специалистов, если признать врачебные ошибки, то они займут третье место (!) среди основных причин смерти после заболеваний сердечно-сосудистой системы и рака.

Ставки на спорт и прогнозы AI

Чемпионат мира по футболу 2018 года стал главным спортивным событием года.

Исследователи искусственного интеллекта в Goldman Sachs, Немецком техническом университете Дортмунда, Пермском государственном национальном исследовательском университете и других учебных заведениях, использовали модели машинного обучения для прогнозирования результатов многоступенчатого соревнования.

Источник: www.retail-loyalty.org
Источник: www.retail-loyalty.org

Несмотря на приложенные усилия, большинство из прогнозов оказались совершенно неверными. Только EA, которая проводила симуляции, используя новые рейтинги для своей видеоигры FIFA 18, сделала ставку на победителя Франции. Игровой движок EA опирается на многочисленные методы машинного обучения, призванные сделать игру максимально реалистичной.

Исследователь данных служб SQL, Ник Бернс, предположил:

«Независимо от того, насколько хороши модели машинного обучения, они не могут быть лучше, чем данные, с которыми работают… последних просто недостаточно для составления прогнозов на чемпионате мира по футболу. Слишком много недостающей информации и непредвиденных ситуаций.»

MMORPG EVE: AI вышел из под контроля

Более года назад, разработчиками игры EVE Online, были внедрены в NPC более сложные механики взаимодействия с окружающим миром, что позволяло игровым юнитам, в случае необходимости, вызывать подкрепление, занимать лучшие позиции для ведения боя и адаптироваться к ситуациям.

NPC - персонаж игры,  поведение которого запрограммировано и жестко ограничено.

Источник: i.kinja-img.com
Источник: i.kinja-img.com

Фактически, игровые персонажи получили в свое распоряжение некоторые элементы искусственного интеллекта и успешно им воспользовались, что существенно отличалось от планов разработчиков.

В результате обновления, в некоторых космических секторах начали появляться новые пиратские базы. Спустя время, в одном из секторов столкнулись две NPC фракции: пираты и шахтеры, которые занимались добычей ресурсов на астероидах.

Завязалась нешуточная битва, в ходе которой шахтеры стали проигрывать, но все же не думали сдаваться. AI фракции шахтеров, запросил подкрепление у другой неигровой фракции, которая тоже находилась под управлением AI - Аммарской империи. Поскольку данный сектор считался безопасным, небольшое подкрепление не справилось с задачей, и пираты почти победили.

В то же время, появилась еще одна неигровая фракция, Скитальцы, которые занимались сканированием кораблей и астероидов.

Пираты и шахтеры посчитали Скитальцев большей угрозой и объединились в войне против новой фракции, для защиты своих территорий. В свою очередь, AI Скитальцев не растерялся и вызвал, на поле боя, два могущественных боевых корабля.

В итоге, битва закончилась победой пиратов, так как корабли шахтеров оказывали поддержку и приняли весь удар на себя.

Разработчики узнали о бое по рапортам погибших кораблей от NPC, в которых сообщалось о весьма крупных, нетипичных потерях, и сразу началось расследование инцидент. Позже представители игры признали, что подобный сценарий не был ими предусмотрен.

Это был наглядный пример того, как AI может выйти из под контроля. Пока подобное случилось в игровой вселенной и без последствий для окружающего мира, но, однозначно, пришло время задуматься над рисками неконтролируемого поведения AI в реальном мире.

Предсказуемость AI

Источник: cryptos.tv
Источник: cryptos.tv

При принятии решения, AI опирается на встроенные алгоритмы и огромный объем данных, которые он обрабатывает, чтобы прийти к определенным «выводам».

Ученые Эрик Бриньольфссон и Том Митчелл отмечают, что для того, чтобы предоставить AI прочную основу для правильного принятия решений, нужно установить четко определенные входные и выходные данные, задать цели и точные инструкции, а также устранить длинные цепочки рассуждений, опираясь на здравый смысл. То есть создать как можно более определенную и предсказуемую обстановку.

Но такие идеальные условия трудно найти в реальном мире. Вы не можете ожидать от всех участников дорожного движения, что они будут безупречно следовать правилам, что все почерки будут одинаково разборчивыми или что все ситуации будут понятными и однозначными. Человеческий мозг настроен на работу в неопределенности и в постоянно меняющейся обстановке. И чтобы успешно взаимодействовать с этим миром, AI должен научиться думать как человек.

И самым сложным моментом в самообразования AI является то, что чем больше он похож на человека, тем менее понятными и контролируемыми становятся процессы, происходящие в его «мозгу».

Поговорка: «Никогда не знаешь, что творится в чужой голове», применима не только к людям, но и к современным искусственным нейронным сетям. Как случилось в ситуации с чат-ботами Facebook, которые, как только были предоставлены сами себе, быстро разработали свой собственный язык, непонятный для людей.

Чат-боты являются довольно простыми и безобидными программами, однако это пример того, что стоит быть более осторожными при работе с AI.

Заключение

Это не значит, что завтра мы можем встретить Терминатора за углом своего дома. Но только представьте, что, к примеру, самоуправляемый автомобиль принимает решение о том, повернуть ли ему сейчас или переехать вас, как было в ситуации с Uber.

Также, стоит учесть тот факт, что любая революционная технология, неизбежно, сталкивается с грубыми ошибками, которые люди не в силах предугадать. Вот почему анализ ошибок AI необходим и значим.

Цель статьи не преуменьшить или высмеять результаты исследований и разработок, а взглянуть на это с точки зрения оценки риска использования искусственного интеллекта в реальной жизни без должного предварительного тестирования в виртуальной или замкнутой среде, в надежде избежать необратимых ошибок.

Надеемся, что информация была для вас интересна и полезна. Делитесь ею с друзьями в соцсетях.

Автор - Светлана Лозовюк

Ставьте лайк и подписывайтесь на канал чтобы не пропустить другие интересные новости монет и токенов!

Источник