Японский ИИ научился читать мысли

12.01.2018

Машинное обучение уже использовалось ранее, чтобы визуализировать мысли на основе МРТ, но речь шла о простых черно-белых изображениях, таких как буквы и географические формы. Однако ученые из Киото разработали новую технику декодирования, которая позволяет расшифровывать более сложные цветные образы, например, изображения людей и животных. Они не стали учить нейросеть распознавать отдельные пиксели или простые формы, а имитировали работу человеческого мозга, который обрабатывает визуальную информацию иерархически.

Исследование заняло 10 месяцев. Добровольцам демонстрировали различные изображения, как естественные (изображения птиц и людей), так и искусственные (геометрические фигуры и буквы). Активность мозга измерялась либо во время просмотра изображений, либо впоследствии, когда испытуемые думали об одном из них. Полученные данные анализировала нейросеть.

Помимо повышения точности дешифровки мыслей, исследователи впервые с высокой точностью декодировали изображение, о котором испытуемый только вспоминал, но не смотрел на него непосредственно. Чтобы справиться с этой задачей, ИИ пришлось применить более сложный механизм решения. Причина заключается в том. что человеку трудно в точности воссоздать в своей голове увиденное, а мозг при воспоминаниях активирован меньше.

Нет сомнений, что точность технологии продолжит расти. Потенциальные применения метода могут быть невероятно разнообразны — мы сможем рисовать картины мыслями или видеть галлюцинации психически больных людей. В дальнейшем человечество, возможно, научиться общаться с машинами с помощью подобной «телепатии».