Еще каких-то пять лет назад для большинства людей слова вроде "нейросеть", "машинное обучение" и "искусственный интеллект" были синонимами далекого будущего. Сегодня же п...

Даже в недорогих смартфонах из Китая есть возможность применять невероятные функции — от постановки диагнозов с высочайшей точностью до "воскрешения" давно умерших людей. Одной из современных технологий, которая получила большую популярность, стала технология дипфейк. Что это такое и какую опасность она в себе таит — разбирался корреспондент The Moscow Post.

Что такое дипфейк и как он работает

Само по себе слово "дипфейк" (Deepfake) произошло из составления двух понятий. Первое — глубинное обучение (deep learning), а второе — фейк (fake, то есть подделка или ложь).

Само по себе глубинное обучение — это технология для искусственного интеллекта или нейросети, которая в своем развитии пользуется сложнейшими методами и алгоритмами, используя несколько десятков тысяч характеристик объекта с разнообразными данными. Порой эти данные вручную обработаны человеком, а порой — просто разрозненный набор сведений, которые искусственный интеллект структурирует и компилирует самостоятельно.

Среди неструктурированных данных, которые и привели к созданию технологии дипфейка, стала внешность человека, тембр его голоса, мимика и микродвижения тела.

Огромный массив сведений о внешности человека и его повадках обрабатывается искусственным интеллектом с помощью так называемой генеративно-состязательной сети. Это один из вариантов методологии обучения программ.

В основе этой технологии лежит "соревнование" между нейросетями. Одна обрабатывает разрозненные сведения, например, фотографии людей, вторая же выделяет на основе полученных данных новые, то есть как бы создает "уникальные" фотографии. В результате совместной работы нейросетей происходит постоянное сравнение полученных сведений с исходными. Это и лежит в основе технологии дипфейка — создание изображений людей в динамике, которые обывателю трудно отличить от оригинала.

Фото: Deposiphotos

При этом подобную технологию можно применять не только к фотографиям и видеозаписям, но и к аудио. Например, если нейросети будут иметь "чистые данные" о голосе какого-либо человека, то есть записанные в тишине и без фоновых звуков, они могут заставить этот голос говорить нужные фразы, которые в действительности человек никогда не произносил.

Сама технология была разработана в США в 2014 году студентом Стэнфордского университета Яном Гудфеллоу. Он последовательно совершенствовал методологию после окончания обучения в Google, а затем и в компании Илона Маска OpenAI.

Бурное развитие дипфейки получили в социальной сети Reddit еще в 2017 году благодаря …фильмам для взрослых. Технология использовалась, чтобы подменять лица актеров в роликах на изображение знаменитостей. Бурный интерес к подобным "художествам" на заре развития дипфейков предопределил их методы использования.

Не верь своим глазам и ушам

Технология, что называется "пошла в массы", и стала использоваться для развлечения, манипуляций общественным сознанием и мошенничества. Наиболее яркий пример — видео, сделанное актером Джорданом Пилом. С помощью методологии дипфейка он записал небольшую речь голосом тогдашнего президента США Барака Обамы, наложил его на кадры записи выступления политика. У зрителя возникло полное ощущение того, что экс-глава государства действительно публично произносит речь о какой-то бессмыслице. Весь этот "технологических перфоманс" был призван показать зрителю, что стоит весьма критично относиться ко всему, что предстает перед глазами.

Аналогичных примеров много. Появился дипфейк с главой корпорации Meta Марком Цукербергом, который "на полном серьезе" уверял, что социальная сеть Facebook может управлять будущим, поскольку ранее украла гигантские массивы данных пользователей. "Оскандалилась" и спикер Палаты представителей США Нэнси Пелоси, в одночасье став звездной YouTube из-за пьяных выходок, которых в действительности не происходило. Немало голливудских актрис вдруг "почувствовали" себя в шкуре актрис из фильмов для взрослых.

Фото: Deposiphotos

В российских социальных сетях крупные юмористические сообщества периодически выкладывают видео с Президентом России, сделанные по той же технологии. В них "Владимир Путин" произносит задушевные тосты, шутит, предстает в ситуациях, не свойственных для главы государства. Ролики довольно забавные и не направлены на дискредитацию первого лица России, они иронизируют над некоторыми национальными российскими чертами и моментами бытовой повседневности.

Опасность дипфейков

Как уже было сказано выше, технология подмены голоса и внешности может нанести значительный репутационный ущерб публичным личностям, если у них есть недоброжелатели. Но под удар могут попасть и простые люди, и крупные компании.

Ярким примером стал случай из Великобритании, где жертвой технологии стал глава одной из энергетических компаний. Ему на телефон якобы позвонил "босс" и потребовал перевести на определенный счет более 200 тысяч евро. Запись голоса была сделана настолько хорошо, что топ-менеджер и не думал усомниться, что на другой стороне трубки действительно настоящий начальник. Подозрения закрались лишь после второго звонка, когда аппетиты того самого голоса выросли и он потребовал перевести на сомнительный счет уже более полумиллиона евро. Стоит ли говорить, что отправленные суммы исчезли без следа.

Жертвой технологии дипфейков стал и министр иностранных дел Франции Жан-Ив Ле Дриан, от имени которого злоумышленники через видео просили о пожертвованиях для спасения "заложников в Сирии". При этом обстановка в кадре — точно из кабинета высокопоставленного чиновника, его голос и манеры было не отличить от оригинала, что уж говорить о лице. В этом случае состоятельные французы, получившие обращение, с легкостью расстались с несколькими миллионами евро по просьбе аферистов.

Есть примеры и более бытового плана, но сделанные не менее изобретательно. Например, мошенники могут выманивать сведения от доступов к банковским счетам и персональной информации обычных людей, подменяя голос родных или кого-то из начальства.

Опасность технологии заключается и в том, что производство дипфейков по мере роста популярности постоянно дешевеет. В конечном счете это ведет к увеличению количества случаев шантажа, мошенничества и других видов преступлений.

Можно ли защититься от дипфейков?

Определенные шаги для защиты публичных лиц от мошенников, использующих технологию дипфейков, предпринимаются, разве что в западных странах. Например, в США в 2021 году на законодательном уровне были приняты инициативы, которые если не "бьют по рукам", то значительно ограничивают возможности создания компрометирующего контента. Правда, законы лишь запрещали использовать изображения лиц для создания контента для взрослых без согласия изображаемых и ограничивали подделку фото и видео кандидатов на государственные посты перед выборами.

Совершенно очевидно, что данные меры являются недостаточными. К счастью, не стоят на месте и технологии по распознаванию дипфейков. Они несовершенны, поэтому не отменяют банальной человеческой внимательности и тщательной проверки фактов. Есть и некоторые технические характеристики дипфейковых видео или записей, которые помогут распознать обман и простым гражданам.

Стоит обратить внимание на возможные неровные и как бы "рваные" движения человека в кадре, а также на разницу в освещении. Также технология пока не может достаточно четко изобразить правильный тон кожи человека при различном сведении. Еще один нюанс — странное моргание и мимика при этом процессе или же полное отсутствие движения глаз. В голосовых записях дипфейк можно опознать по резким колебаниям тональности, несвойственных человеку паузах в речи или же наоборот, ее ускоренный темп.

В целом, как было сказано выше, настали времени, когда не стоит верить своим глазам и ушам, особенно в моменты просмотра какого-либо контента в Сети. По мере развития навыков критического мышления и примечания мелких деталей ваш опыт будет помогать распознавать злонамеренные действия, а значит и обмануть вас будет гораздо сложней.

Читать на "The Moscow Post"