Дипфейки становятся угрозой безопасности страны
Технология дипфейков улучшается постоянно, и ее предсказуемо начали использовать преступники. С ее помощью людей помещают в порно и могут подставить, а также манипулируют общественным мнением. И раз дипфейки становятся угрозой безопасности, страны и компании готовы тратить большие деньги на борьбу с подделками.
<source type="image/webp" srcset="https://static.360tv.ru/get_resized/3mT2QcgPpSKek-uGslaGbox3tXUfmHQXjGZeYBJ0oYM/resizing_type:fill/size:1600:900/gravity:fp:0.5:0.5/enlarge:1/aHR0cHM6Ly8zNjB0di5ydS9tZWRpYS9pbWFnZXMvYXJ0aWNsZXMvY3JvcHMvNjY0NzczZTYtMTdiMi00Mjk3LWFkYTItN2YyNjYwMTQ1NzkwL2Nyb3BfOTIxXzUxOC5qcGc.webp 1600w, https://static.360tv.ru/get_resized/nRflAWLivLjS7cgxRr9cu4mv0hREOOSAqH8TSARwERk/resizing_type:fill/size:1236:695/gravity:fp:0.5:0.5/enlarge:1/aHR0cHM6Ly8zNjB0di5ydS9tZWRpYS9pbWFnZXMvYXJ0aWNsZXMvY3JvcHMvNjY0NzczZTYtMTdiMi00Mjk3LWFkYTItN2YyNjYwMTQ1NzkwL2Nyb3BfOTIxXzUxOC5qcGc.webp 1236w, https://static.360tv.ru/get_resized/2nrMpce0I_lU22anwXtywMfpKQzeUb7EK5mlFgfRKcg/resizing_type:fill/size:720:405/gravity:fp:0.5:0.5/enlarge:1/aHR0cHM6Ly8zNjB0di5ydS9tZWRpYS9pbWFnZXMvYXJ0aWNsZXMvY3JvcHMvNjY0NzczZTYtMTdiMi00Mjk3LWFkYTItN2YyNjYwMTQ1NzkwL2Nyb3BfOTIxXzUxOC5qcGc.webp 720w, https://static.360tv.ru/get_resized/pz2Z71-D1SoS50NlYG_BhYyLT2ldn7M-hNLG8ivqd9Q/resizing_type:fill/size:640:360/gravity:fp:0.5:0.5/enlarge:1/aHR0cHM6Ly8zNjB0di5ydS9tZWRpYS9pbWFnZXMvYXJ0aWNsZXMvY3JvcHMvNjY0NzczZTYtMTdiMi00Mjk3LWFkYTItN2YyNjYwMTQ1NzkwL2Nyb3BfOTIxXzUxOC5qcGc.webp 640w, https://static.360tv.ru/get_resized/GwYTccytIuBIc2ZAfJVMJvkca-pMivVwIypsCyMBXLM/resizing_type:fill/size:1080:608/gravity:ce:0:0/enlarge:1/aHR0cHM6Ly8zNjB0di5ydS9tZWRpYS9pbWFnZXMvYXJ0aWNsZXMvY3JvcHMvNjY0NzczZTYtMTdiMi00Mjk3LWFkYTItN2YyNjYwMTQ1NzkwL2Nyb3BfOTIxXzUxOC5qcGc.webp 1080w" sizes="(max-width: 767px) 100vw, (max-width:945px) calc(100vw - 24px), (max-width:1279px) 921px, 588px"/><source type="image/jpeg" src="https://360tv.ru/media/images/articles/crops/664773e6-17b2-4297-ada2-7f2660145790/crop_921_518.jpg"/>
О технологии дипфейк говорят на протяжении последних лет. Слово образовано из двух составляющих — «deep learning», который обозначает обучение нейросетей, и «fake», то есть «подделка». С помощью дипфейков получается заменить лицо другого человека на видео. Искусственный интеллект анализирует фотографии лиц и учится тому, как правильно двигается и выглядит каждый человек. Технология также позволяет изменять скорость голоса человека и даже его речь.
Первые дипфейки появились в 2017 году, когда пользователь Reddit загрузил поддельные порнографические ролики на сайт. На них лица порноактеров заменили на лица американских звезд — Галь Гадот, Тейлор Свифт, Скарлет Йоханссон и других.
Создавать дипфейки на обычном компьютере было непросто. Большинство поддельных роликов делали на высокопроизводительных компьютерах с мощными видеокартами и большим объемом памяти. Это позволяло уменьшить время на производство с дней и недель до часов.
Однако сейчас с развитием приложений создавать дипфейки становится намного проще.
По словам генерального директора компании AnyClip, дипфейки представляют даже большую угрозу, чем фейковые новости: любой может убедительно вставить слова в чью-то речь.
Опасная технология
В Сети полно безобидных дипфейковых видео. Среди них есть как простые и некачественные, например, замена героев фильмов на Николаса Кейджа, так и более сложные. За примером ходить далеко не надо — в начале этого года в TikTok якобы появился аккаунт Тома Круза, который показывает фокусы и играет в гольф.
Но иногда технологию используют совсем не для развлечений. Американка Рафаэлла Споун решила прибегнуть к дипфейкам, чтобы отмстить за свою дочь, которую якобы обижали другие члены команды по чирлидингу. Как пишет «Газета.ru», Споун разослала тренеру и самим обидчицам порноролики с их участием, а также видео, где они принимают запрещенные вещества и пьют алкоголь.
Полиция выяснила, что Споун создавала видео на основе фотографий из аккаунтов девушек в соцсетях и смонтировала их при помощи технологии дипфейков. Дочь Споун не подозревала о намерениях матери, а саму американку обвинили в киберхарассменте.
Дипфейки использовались не только для преследования жертв, но и для мошенничества. Китайским аферистам удалось два года подряд обманывать систему распознавания лиц и заработать на этом 76 миллионов долларов. Они покупали фотографии существующих людей в даркнете, с помощью дипфейка «оживляли» их. А затем пользовались смартфонами, у которых система распознавания лиц принимала фейки за живое лицо, и подделывали налоговые накладные.
С помощью подделки голоса хакеру смог украсть 243 тысячи долларов у британской энергетической компании. Он позвонил ее генеральному директору и представился главой немецкой компании Euler Hermes Group. Ему даже удалось подделать акцент и интонацию коллеги из Германии с помощью технологий.
Как распознать фейк
Дипфейк становится серьезной проблемой в интернете и, в частности, в социальных сетях, поскольку технология быстро улучшается. В 2018 году исследователи из США выяснили, что поддельные лица моргают не так, как обычные люди. Причина была в том, что алгоритмы зачастую анализируют фотографии, где глаза открыты. Но как только исследование было опубликовано, дипфейковые лица научились моргать.
Перед выборами президента США в 2020 году Facebook начал блокировку видео, которые могли бы ввести пользователей в заблуждение о том, что конкретные люди произносили определенные речи.
Сегодня правительства, университеты и технологические компании спонсируют исследования, которые могли бы определять подделки. В прошлом году Facebook и Microsoft подвели итоги общего конкурса на создание разоблачителя дипфейков. Победителем стал минский программист Селим Сефербеков.
А у МВД России уже к 2022 году появится программа-разоблачитель дипфейков. Она будет называться «Зеркало (Верблюд)» и будет искать признаки внутрикадрового монтажа, которые сделали нейронные сети. Работы по исследованию завершатся 30 ноября следующего года, а контракт стоимостью 3,5 миллиона рублей заключили 4 марта.
Комментарии