Джейсон Стейтем из глубинки и реальные мошенники: как работают дипфейки и как им противостоять
Джейсон Стейтем купил домик в деревне и празднует там шестидесятилетие вместе с Марго Робби и Киану Ривзом. В реальности такое вряд ли возможно, а вот в мире дипфейков запросто ― что и доказали создатели первого российского дипфейк-сериала «ПМЖейсон», который вышел в 2022 году.Но с помощью дипфейков можно не только «переселять» голливудских героев в российскую глубинку, но и выманивать миллионы долларов у целых компаний. Как создают и используют дипфейки и, главное, как их распознать, если за технологией стоят злоумышленники, разбираемся вместе с директором лаборатории валидации и верификации сложных технических систем факультета безопасности информационных технологий ИТМО Ильей Поповым.
Это реалистичная подмена фото-, аудио- и видеоматериалов, созданная с помощью нейросетей. Сам термин ― deep fake ― объединяет в себе «глубокое обучение» (deep learning) и «подделку» (fake). Компьютерные алгоритмы научились «оживлять» фотографии, синтезировать голос человека, заменять лица на видео. Благодаря этому можно создавать контент, внешне почти неотличимый от настоящего.
Как создают дипфейки?
С помощью генеративно-состязательных нейросетей (GAN). Это алгоритмы на базе машинного обучения, которые генерируют новый контент на основе заданного набора. Например, можно натренировать нейросеть на нескольких тысячах фотографий мистера Бина, а потом создать нового персонажа с чертами и мимикой героя Роуэна Аткинсона. Или наложить его лицо на видео с другим человеком ― как сделали шутники, «переселив» мистера Бина в рекламу от Dior. При этом нейросети не зря называются состязательными ― пока один алгоритм создает видео, второй пытается определить, настоящее оно или нет. Если второй алгоритм смог обнаружить фальшивку, первый узнает о причинах отбраковки и начинает сначала. Так продолжается снова и снова, пока первая нейросеть не предоставит результат, который вторая сочтет достаточно реалистичным.
Как их используют сейчас?
По-разному. Самые безобидные примеры ― просто ради развлечения. Например, в 2020 году в сети разошелся дипфейк, в котором Илон Маск спел песню «Трава у дома» вместо солиста группы «Земляне». А год спустя популярность приобрели дипфейки с Томом Крузом ― в роликах актер показывал фокусы, играл в гольф, рассказывал о встрече с Михаилом Горбачевым и делал много чего еще. Роль Круза исполнил актер Майлз Фишер, а на его лицо нанесли реалистичную маску голливудской звезды, созданную с помощью нейросети. Кстати, автор роликов, бельгийский специалист по визуальным эффектам Кристофер Уме создал потом собственную студию дипфейк-технологий.
В России в 2022 году сняли целый дипфейк-сериал ― «ПМЖейсон». Действие разворачивается в 2027 году. По сюжету, Джейсон Стэйтем остается жить в русской деревне после пяти лет съемок в России. Когда ему исполняется 60 лет, к нему домой приезжают отпраздновать его друзья — Марго Робби и Киану Ривз.
А для чего-то полезного их применяют?
Да, некоторые компании создают на основе технологии обучающие курсы. Например, 50 тысяч сотрудников британского рекламного холдинга WPP осваивают основы маркетинга по видеокурсам с виртуальным наставником, который ведёт лекции на трёх языках: английском, испанском и китайском, при этом обращаясь к каждому студенту по имени. На создание роликов компания потратила $100 тыс., но в холдинге подсчитали, что видео с живыми актерами обошлись бы им в 10 раз дороже. Кроме британского WPP, видеокурсы на основе нейросети создают в Reuters, SAP, Accenture и Buzzfeed. Материалы используют для адаптации новичков, обучению технике безопасности и стандартам работы.
Но не все так хорошо?
Конечно. С другой стороны, технологию можно использовать для мошенничества и манипуляций общественным мнением. И таких примеров очень много. В прошлом году в Китае двое мошенников с помощью дипфейков смогли обмануть систему распознавания лиц налоговой службы и провернуть аферу на $76,2 млн, в России мошенники сделали дипфейк-рекламу, используя образ Олега Тинькова. На видео ненастоящий миллиардер призывал инвестировать и получать бонусы, регистрируясь по ссылке. А в ОАЭ мошенники с помощью аудиодипфейка «клонировали» голос директора крупной компании и обманули менеджеров банка, которые перевели на их счет $35 млн. Эксперты по информационной безопасности считают, что в перспективе такие схемы будут еще больше распространяться по всему миру.
Как конкретно мошенники могут использовать дипфейки?
Чаще всего сейчас дипфейки используются для компрометации личности. Например, известны случаи, когда их применяли для уничтожения репутации журналистов по всему миру. Особенно актуально это для Индии, где уровень технической грамотности не так высок.
Неужели человеку так сложно распознать дипфейк? Казалось бы, достаточно просто присмотреться к мимике или заметить в голосе фальшивые интонации.
В последнее время да, качественно изготовленные дипфейки трудно отличить на глаз. Тем более это невозможно, если фото или видеоряд дополнительно подверглось постобработке. Например, пару лет назад дипфейки «не умели моргать», потому что алгоритмы обучались на статичных изображениях. Сейчас такого недостатка уже нет. Если говорить в целом, то первые признаки, которые заставляют задуматься об оригинальности видеоряда ― непропорционально большая или маленькая голова, странное освещение, неправильные тени на лице и смазанность мелких деталей ― например ресниц или бровей (вспомним дипфейк с Олегом Тиньковым).
Как еще можно распознать и нейтрализовать дипфейки?
Методов много: некоторые работают с последовательностью кадров, другие ― с текстурой кожи, третьи занимаются поиском различного вида артефактов и так далее. В целом, специалистам нетрудно обнаружить дипфейк, и некоторые готовые решения уже появляются в открытом доступе, чтобы любой желающий мог проверить оригинальность цифрового контента. Например, в 2022 году компания Intel создала модель искусственного интеллекта FakeCatcher, которая в режиме реального времени распознает дипфейки на видео. По словам разработчиков, система способна отличить реального человека от подделки в том числе за счет изменения цвета кровеносных сосудов. Алгоритм считывает эту информацию с множества точек на лице, а после с помощью ИИ обрабатывает полученные данные.
Добавим, что директор лаборатории валидации и верификации сложных технических систем факультета безопасности информационных технологий ИТМО Илья Попов и сотрудник лаборатории Виталий Роговой также рассказали о работе с дипфейками и о способах их идентификации на форуме AntiFraud Russia 2022, который состоялся в декабре.
Адрес учредителя и редакции: 197101, г. Санкт-Петербург, Кронверкский проспект, д. 49
Сетевое издание ITMO.NEWS зарегистрировано в Роскомнадзор 30.08.2017
Свидетельство о регистрации СМИ ЭЛ № ФС 77 – 70637
Возрастное ограничение: 16+