Дипфейки: доверять или проверять?
Обратно к статьям

Дипфейки: доверять или проверять?

Искусственный интеллект научился создавать видео- и аудиоконтент, в реалистичности которого трудно усомниться. Как только технология стала доступна всем, ее начали использовать и мошенники. Поговорим о том, что такое дипфейки и как с их помощью злоумышленники сегодня обманывают людей. Расскажем, как научиться распознавать дипфейки и не попадаться на уловки кибермошенников.

Бабушка с домашним бегемотом Булькой — это забавное видео мгновенно разлетелось по самым популярным медиаплатформам Рунета. Удивительный домашний питомец, которого выгуливала и кормила милая старушка из российской глубинки, покорил всех пользователей. Видеоролик, сгенерированный нейросетью, получился настолько реалистичным, что многие сначала действительно поверили в эту историю, а отдельные новостные каналы даже преподносили сюжет как «хит прайм-тайма».

Доступность технологий создания поддельных аудио и видео позволила не только собирать миллионы просмотров в социальных сетях, но и генерировать новые мошеннические схемы, на которые попадаются пользователи самых разных возрастов, профессий и статусов.

Слово «дипфейк» (deepfake) происходит от сочетания deep learning (глубокое обучение) и fake (подделка). Это технология синтеза медиаконтента при помощи искусственного интеллекта, которая используется для подмены реального изображения, видео или аудио на фальшивое.

Каждый из нас сталкивается с дипфейками практически ежедневно. Главные площадки, где цифровые подделки наиболее популярны, — видеохостинги, мессенджеры и социальные сети, новостные ресурсы и СМИ. Чаще всего это развлекательный контент — забавные изображения и видео, сгенерированные нейросетями. Как правило, безобидные сюжеты, создатели которых хотят вызвать у подписчиков эмоциональный отклик, чтобы те поставили «лайк» под постом. 

Однако, к сожалению, далеко не всегда дипфейки используются только для развлечения. Рассмотрим главные опасности, с которыми может столкнуться каждый пользователь интернета. 

Чем опасны дипфейки?

  • Мошенники виртуозно встраивают их в свои схемы по выкачиванию денег. 

Представьте, что вам по видео звонит знакомый, просит срочно перевести деньги и говорит, что спасти ситуацию можете только вы. Ваша естественная реакция — скорее броситься на помощь. Причем звонить может не просто знакомый, а близкий родственник, друг, учитель из школы. От степени близости звонящего зависит сила эмоциональной реакции. На это и рассчитывают злоумышленники. 

Одна из популярных схем, которую активно используют мошенники для обмана подростков, — курьерская доставка. Все начинается с безобидного звонка курьера и перерастает в серьезный онлайн-диалог в формате видео-конференц-связи с «полковником», «следователем» или «представителем прокуратуры». На экране — самый настоящий сотрудник МВД или ФСБ со всеми соответствующими атрибутами: кабинет, форма, строгий взгляд, серьезная манера общения. Главная эмоция, которой манипулируют в этой схеме мошенники, — страх за себя и за родителей, которые, если узнают о твоих делах, сразу «пойдут под суд и лишатся работы».

Очень популярны в сети и мошеннические схемы, когда известные политики, актеры, блогеры и музыканты предлагают «суперприбыльные» схемы вложения денег и розыгрыши ценных призов. Все это ловушки, чтобы выудить персональные данные или деньги.

  • Дезинформация, манипуляция и шантаж.

Дипфейки могут использоваться для создания ложных заявлений от имени политиков, журналистов и блогеров для подрыва доверия и манипулирования общественным мнением. Поддельный контент чаще всего распространяется в неофициальных новостных каналах, которые не имеют государственной аккредитации, но заслужили доверие и уважение аудитории за счет скандальных и шокирующих новостей.

Однако не всегда манипуляции и шантаж направлены только на медийных персон. Бывают случаи, когда в таких схемах главным «героем» становится подросток, чьи поддельные провокационные, унижающие достоинство видео используются злоумышленниками для травли и шантажа. Мошенник угрожает распространить видео с участием жертвы среди друзей и близких, если та откажется играть по его правилам. Как правило, злоумышленник предлагает уничтожить видео в обмен на финансовое вознаграждение. Такие угрозы пугают, загоняют в угол, создают ощущение безысходности. Самое главное в такой ситуации — не пугаться, не замыкаться в себе, а, наоборот, как можно скорее поделиться проблемой с кем-то из взрослых: с родителями, учителем, наставником. Рано или поздно истина восторжествует, и правда будет на стороне пострадавшего.

Можно ли распознать дипфейк?

Раньше, чтобы подделать видео, нужны были профессиональные студии и специальная дорогая техника. Сегодня же ситуация кардинально изменилась: создать реалистичную подделку можно на обычном компьютере и даже смартфоне. Причем технологии ушли так далеко, что для генерации клона голоса близкого вам человека нейросети достаточно всего 3–4 слов, а для создания видеофейка нужно лишь одно фото. 

Однако внимательный зритель всегда сможет отличить сгенерированную подделку от оригинала по нескольким признакам:

  1. Странная мимика: человек моргает не вовремя или слишком редко. Кажется, что рот живет своей жизнью: движения губ не синхронизируются со словами, а эмоции выглядят «пластиковыми».
  2. Проблемные зоны по краям: если присмотреться к ушам, волосам или шее, можно заметить странные пятна или размытость. Особенно, когда человек крутит или качает головой.
  3. Неправильный свет: лицо освещено так, будто оно находится в другом месте, а не в этом кадре.
  4. Глюки при движении: как только человек начинает двигаться быстро, картинка «плывет», становится мутной или дергается.
  5. «Прыгающий» задний план: текстуры за головой персонажа могут дрожать — это значит, что нейросетевая маска плохо держится на фоне.

Проверка дипфейков: надежные сервисы

Пока одни нейросети учатся создавать все более реалистичные дипфейки, другие активно развивают свои технологии, чтобы эти подделки разоблачать. Давайте разберемся, какими ресурсами можно пользоваться прямо в режиме онлайн.

Для проверки видеороликов подойдут:

  1. Hive Moderation — мощный инструмент, который помогает быстро определить, создан ли контент с помощью искусственного интеллекта. 
  2. Deepware AI — сервис, который специализируется на выявлении фальшивых видеороликов.

Для проверки аудиозаписей можно использовать:

  • AI Voice Detector — программа для анализа аудиофайлов, которая моментально определяет, применялся ли искусственный интеллект для создания голосовых сообщений.
  • AI or Not — простой и эффективный инструмент, способный быстро проанализировать аудио на наличие признаков ИИ-генерации.
  • ElevenLabs — продвинутый инструмент, который использует сложные нейронные сети для выявления искусственных голосов с высокой точностью. 

Как защититься от дипфейков?

Самое главное правило, которое поможет не только защититься от дипфейков и мошенников, но и значительно сократить поток информации, поступающей к нам ежедневно в огромных объемах, — это формировать навык критического мышления. Стоит относиться с легким недоверием буквально ко всему и стараться проверять информацию в нескольких источниках. 

Есть и другие правила, которые помогут заметно снизить риск и не попасться на уловки мошенников:

  1. Правило «второго звонка». Сомневаетесь, что друг или родственник действительно просит о помощи? Не переводите деньги сразу — свяжитесь с собеседником по другому каналу связи.
  2. Тест на «своего». Задайте вопрос о совместном воспоминании, на который точно не ответит бот или нейросеть.
  3. Смотрите на автора. Доверяйте только тем СМИ и блогерам, чья репутация не вызывает сомнений.
  4. «Прогоняйте» через детекторы. Если видео кажется странным, загрузите его в сервисы по поиску нейросетевых подделок.
  5. Не делайте репосты на эмоциях. Даже если ролик шокирует, подождите немного и проверьте факты в других источниках.
  6. Объясняйте правила безопасности семье. Расскажите родителям и бабушкам, что видео не всегда является доказательством правды.
  7. Закройте свои профили. Чем меньше ваших фотографий гуляет по сети, тем сложнее мошенникам создать вашу цифровую копию.
  8. Держите оборону. Не забывайте про двухфакторную аутентификацию и защиту от вирусов.

Краткое наименование: АНО «Центр глобальной ИТ-кооперации».

ИНН: 714467033. КПП: 770301001.ОГРН: 1207700468139.

Юридический адрес: 125009, г. Москва, Тверской бульвар, д.14, стр.1, этаж 6, помещ. I, офис 6.

Эл.почта: info@cgitc.ru. Телефон/Факс: + 7 (495) 221 56 06.