Deep fake - технология способная разрушать

ИИ следующего поколения угрожает вывести интернет-подделку на новый опасный уровень.


Представьте, 2 ноября 2020 года, накануне президентских выборов в США, во всех СМИ всплывает тайно записанное видео, где Дональд Трамп говорит, что занимается шпионажем в пользу РФ”. Начинаются протесты, и Трампу приходится оправдываться тем, что это всё подстроили.


Но Трамп говорил правду — он не сказал этих слов. Его видео было создано с помощью технологии «Deepfake», в которой используется сложный искусственный интеллект (ИИ) для создания видео и аудио. Технология уже используется и, если ее не остановить, то пора начать сомневаться во всем, что мы наблюдаем и слышим в Интернете.


Но не только в интернете распространён deepfake. Предположим, преступник "подделал" голос вашей сестры и позвонил вам, попросив перевести деньги. Ты бы купился на это?


К счастью, эксперты осознают опасность, которую представляет deepfake. И начинают создавать контр методы, которые сделают эту технологию менее опасной.


Deepfake можно использовать для всех видов обмана, но чаще всего он используется для «смены лица», когда лицо одного человека накладывается на другое. В одной из демонстраций лицо режиссера Джордана Пила переносится на лицо Барака Обамы, поэтому Пил может заставить бывшего президента США говорить все, что ему нравится.


Deeptrace, Амстердамская компания, созданная для борьбы с угрозой deepfake, где по их оценке в интернете находится около 10 000 видеороликов deepfake. Более 8000 из них-порнографические клипы, где лицо знаменитости накладывается на тело порнозвезды. Эксперты предсказывают, что фальшивое видео о том, как политик якобы говорит или делает что-то, что меняет ход голосования, является лишь вопросом времени.


Слово “deepfake” происходит от английского ‘глубокое изучение’ и ‘подделка’. Глубокое обучение-это форма ИИ, где алгоритмы, похожие на человеческий мозг, известные как нейронные сети, изучают новые навыки, обрабатывая огромные объемы данных. В основе deepfake лежит форма глубокого обучения. Здесь две нейронные сети работают друг против друга для создания реалистичного видео и звука. Одна сеть, генератор, является творческим битом. Ей подается большой массив данных, и задача ставится — создать лицо максимально похожее на настоящее. Другой сети поручено определить, является ли изображение, которое он получает от генератора, поддельным и каждый раз когда. Когда дискриминатор отклоняет видео, генератор пытается снова. Это продолжается до тех пор, пока генератор не произведёт что-то, что почти неотличимо от реальности.


Команда Deeptrace кормит свою нейросеть тысячами поддельных видео, чтобы отточить систему. Во многом так же, как оригинальная технология не запрограммирована на создание реалистичного лица, нейросеть Deeptrace учится определять подделки из данных.


Одна из причин, по которой этот метод настолько эффективен, заключается в том, что нейросеть способна на то, на что не способен человеческий разум: математически описать, что не так с изображением или звуком. «Я мог заметить, что нейросеть неправильно создает тени на изображениях, но я не могу описать это математически», - говорит Картер Хаффман, технический директор Modulate, компании, использующей эту технологию для разработки искусственных голосов.


Но даже те, кто борется с deepfakes признают, что их системы обнаружения являются лишь частью решения. Даже если видео с deepfake-ом будет замечено, то это ни как не помешает его распространено по социальным сетям в течение нескольких минут. Возможно, появление deepfake требует изменения нашего мышления. И теперь нельзя верить даже собственным глазам