Baza
47 533 subscribers

Без лица. Как дипфейки стали оружием в руках мошенников

346 full reads
904 story viewsUnique page visitors
346 read the story to the endThat's 38% of the total page views
5,5 minutes — average reading time
Картинка: rotundus.co.uk/Baza
Картинка: rotundus.co.uk/Baza
Картинка: rotundus.co.uk/Baza

Продвинутые системы защиты, которые точно определяют голос или лицо человека, теперь можно обмануть. Несколько месяцев назад мошенники подделали голос директора банка, а затем ограбили его компанию на 35 миллионов долларов. Двое преступников из Китая зашли ещё дальше: они научились обходить государственную систему распознавания лиц и за 2 года заработали на этом больше 75 миллионов.

Всё благодаря технологии Deepfake — специальным методам обучения нейросетей. Такую сеть можно научить чему угодно: достаточно дать ей правильные данные, а она сможпо воспроизвести их нужным образом. Deepfake-методы, в свою очередь, обучают создавать копии разных объектов, а также помещать их на запись. Специалисты предупреждают: в плохих руках технология может представлять серьёзную опасность. И в последнее время появляется всё больше доказательств их правоты.

Оживить Мону Лизу

На протяжении XX века исследователи учились обрабатывать изображение и звук. В 1930-м американец Гомер Дадли создал сложный аппарат The Voder для синтезирования искусственной речи. А в 1957-м появилось первое цифровое изображение: учёный Рассел Кирш отсканировал фото своего сына.

Хотя цифровые изображения и синтез голоса вскоре перестали удивлять, до начала XXI века учёные смогли воссоздать только «робоголос». Но в последние десятилетия теоретических знаний и мощности компьютеров стало хватать для создания напоминающей человека копии голоса и видеоряда.

В 2016-м компания Adobe представила программу Voco — так называемый Photoshop для голоса, инструмент для редактирования звуковых файлов с огромными возможностями. Специалисты сразу высказали опасения, что такой софт может представлять опасность в руках злоумышленников — например, для подделки биометрических данных. В итоге Adobe предпочла не выпускать приложение в широкий доступ, но Voco оказалась первой среди многих. Похожими алгоритмами занимались NVIDIA, другие IT-гиганты и простые энтузиасты.

В 2017-м в интернете стали популярны эксперименты с технологиями глубокого машинного обучения, или Deep learning. Копии, созданные таким путём, получили название Deepfake. Через некоторое время дипфейками удалось воссоздать Сальвадора Дали и Фредди Меркьюри, привести в движение Мону Лизу и «заставить» сыграть в советских фильмах Арнольда Шварценеггера. Современные алгоритмы ещё не слишком совершенны, так что самые убедительные дипфейки получились в результате сотрудничества программистов и актёров — как в случае с Дали или Томом Крузом.

Аккаунт @deeptomcruize появился в Тик Токе в начале 2021-го. Актёр в роли голливудской знаменитости рассказывал анекдоты про Горбачёва, играл в гольф и выглядел очень убедительно. Его легко можно было перепутать с Томом Крузом, если бы не название аккаунта. Музыкант Джастин Бибер, например, случайно поддался на обман: принял «Киберкруза» за оригинал и два часа учил его играть на гитаре.

Дипфейки можно использовать в киноиндустрии или для мемов, но далеко не все их авторы руководствуются лишь развлекательными целями. Одним из первых дипфейк-роликов стало порновидео с Галь Гадот, а точнее — с обычной порноактрисой, которая получила соответствующий облик благодаря программе.

С распространением технологии в интернет вылилось огромное количество дипфейк-порно: в 2019 году 95% дипфейков относились как раз к теме порно. Со временем ситуация не стала лучше: появились приложения, с помощью которых любой желающий может «раздеть» любую девушку на фото, а на днях в Японии и вовсе возбудили уголовное дело из-за дипфейк-порно. Мужчина зачищал неприличные ролики от цензуры, а затем продавал их в обход местных законов.

Джастин Бибер не разобрался в ситуации

Я этого не говорил!

В марте 2019-го исполнительный директор британской энергокомпании перевёл своему начальнику из Германии 240 тысяч долларов. Запрос был срочным — перевод нужно было сделать в течение часа. Сотрудник узнал лёгкий немецкий акцент босса, доверился ему и в итоге сделал перевод. Вскоре в компанию поступили ещё два звонка: сперва «босс» рассказал, что уже вернул деньги, а затем — потребовал перевести ещё. Во время последнего звонка у исполнительного директора всё же возникли сомнения в происходящем: он заметил, что деньги не вернулись на счёт, а звонок был сделан не с немецкого, а с австрийского номера. На этот раз перевода не последовало, но было уже поздно: мошенники успешно обманули фирму с помощью дипфейка голоса и совершили первое в мире преступление с использованием этой технологии.

Дипфейки стали новым новым вызовом в сфере безопасности. Инструменты для их определения уже появились, но ещё не успели пройти проверки и войти в обиход. Между тем злоумышленникам для генерации голоса было достаточно коммерческого программного обеспечения, которое находится в свободном доступе.

Дипфейк-портрет Моны Лизы. Источник: Samsung
Дипфейк-портрет Моны Лизы. Источник: Samsung
Дипфейк-портрет Моны Лизы. Источник: Samsung

В том случае полиция так и не смогла выйти на преступников. Деньги поступили в некий венгерский банк, откуда разошлись по всему миру. Следователи зашли в тупик и передали дело Европолу — с тех пор новостей о тех или иных успехах полиции не было.

Второе ограбление банка по похожему сценарию произошло в январе 2020-го. Менеджер из Гонконга принял звонок от «директора» фирмы, с которым уже общался ранее. Поддельный клиент сообщил что нужно сделать перевод 35 миллионов долларов, так как его компания собралась заключить сделку с крупным приобретением. Менеджер получил по электронной почте письма с указаниями от адвоката и «руководителя», а затем сделал перевод, будучи уверенным в своих действиях.

Расследованием случая занимались США и Объединённые Арабские Эмираты, так как злоумышленники нанесли вред расположенной в пределах государства организации. Следователи обнаружили схему, в которой принимали участие 17 человек, а деньги попали в различные государства и банки, в том числе американский Centennial Bank.

Поддельный «Олег Тиньков». Источник: YouTube
Поддельный «Олег Тиньков». Источник: YouTube
Поддельный «Олег Тиньков». Источник: YouTube

Такие продуманные и высокотехнологичные ограбления компаний пока что редкость. Но мошенники используют дипфейки и для обмана менее защищённых жертв — обычных пользователей интернета.

Недавно на странице «Тинькофф бонус» в «Фейсбуке» появился ролик, имитирующий российского бизнесмена Олега Тинькова. На видео под названием «Важное заявление от Олега Тинькова» основатель банка предлагал подарить 50% к сумме вложений при регистрации в продукте «Тинькофф инвестиции» по мошенническим ссылкам. Вскоре страницу обманщиков закрыли, а видео удалили. В банке заявили, что впервые сталкиваются с подделкой целой личности ради мошеннических целей. Представители банка назвали этот дипфейк некачественным, хотя обманщикам удалось даже подделать в ролике «моргание» у ложного Тинькова (по его отсутствию у актёра часто можно распознать подделку). Причём это не первый случай такого рода — в конце 2020-го злоумышленники создали видеоролики с копией бизнесмена Дмитрия Мацкевича, с помощью которых привлекали клиентов для мошеннической компании.

Ещё один случай применения дипфейков мошенниками произошел в КНР. В начале 2021-го полиция арестовала двоих мошенников, которые несколько лет обманывали систему проверки личности налоговой службы. Злоумышленники покупали на чёрном рынке фотографии людей в высоком качестве и личные данные, а затем «оживляли» их с помощью нейросетей. На подмене данных для налоговой мошенники за 2 года заработали 75 миллионов долларов — в два раза больше, чем при самом успешном ограблении банка.

По словам экспертов из компании по кибербезопасности Group-IB, современные дипфейки всё ещё не смогли преодолеть так называемый эффект «зловещей долины». Созданные с помощью компьютера симуляции выглядят достаточно достоверно, чтобы напоминать настоящего человека, но некоторые особенности технологии заставляют выглядеть обработанную личность неестественно. Подделку выдают мимика, особенно при моргании, движении бровей и губ, низкое качество видео, за которым нередко пытаются скрыть некорректную работу нейросетей, отличия от оригинала в телосложении, причёске и голосе, а также нечёткое или сильно «смазанное» изображение.

Несмотря на недочёты технологии, она уже помогает мошенникам. Специалист Group-IB Владимир Калугин считает, что количество обманов с использованием дипфейков будет только расти, ведь эта технология легкодоступна. Поэтому, возможно, уже скоро «сотрудники службы безопасности Сбербанка» будут звонить нам по видеосвязи.

#технологии #it #нейросеть #машинное обучение #мошенники #интернет #киберпреступность