Бабушка с домашним бегемотом Булькой — это забавное видео мгновенно разлетелось по самым популярным медиаплатформам Рунета. Удивительный домашний питомец, которого выгуливала и кормила милая старушка из российской глубинки, покорил всех пользователей. Видеоролик, сгенерированный нейросетью, получился настолько реалистичным, что многие сначала действительно поверили в эту историю, а отдельные новостные каналы даже преподносили сюжет как «хит прайм-тайма».
Доступность технологий создания поддельных аудио и видео позволила не только собирать миллионы просмотров в социальных сетях, но и генерировать новые мошеннические схемы, на которые попадаются пользователи самых разных возрастов, профессий и статусов.
Слово «дипфейк» (deepfake) происходит от сочетания deep learning (глубокое обучение) и fake (подделка). Это технология синтеза медиаконтента при помощи искусственного интеллекта, которая используется для подмены реального изображения, видео или аудио на фальшивое.
Каждый из нас сталкивается с дипфейками практически ежедневно. Главные площадки, где цифровые подделки наиболее популярны, — видеохостинги, мессенджеры и социальные сети, новостные ресурсы и СМИ. Чаще всего это развлекательный контент — забавные изображения и видео, сгенерированные нейросетями. Как правило, безобидные сюжеты, создатели которых хотят вызвать у подписчиков эмоциональный отклик, чтобы те поставили «лайк» под постом.
Однако, к сожалению, далеко не всегда дипфейки используются только для развлечения. Рассмотрим главные опасности, с которыми может столкнуться каждый пользователь интернета.
Представьте, что вам по видео звонит знакомый, просит срочно перевести деньги и говорит, что спасти ситуацию можете только вы. Ваша естественная реакция — скорее броситься на помощь. Причем звонить может не просто знакомый, а близкий родственник, друг, учитель из школы. От степени близости звонящего зависит сила эмоциональной реакции. На это и рассчитывают злоумышленники.
Одна из популярных схем, которую активно используют мошенники для обмана подростков, — курьерская доставка. Все начинается с безобидного звонка курьера и перерастает в серьезный онлайн-диалог в формате видео-конференц-связи с «полковником», «следователем» или «представителем прокуратуры». На экране — самый настоящий сотрудник МВД или ФСБ со всеми соответствующими атрибутами: кабинет, форма, строгий взгляд, серьезная манера общения. Главная эмоция, которой манипулируют в этой схеме мошенники, — страх за себя и за родителей, которые, если узнают о твоих делах, сразу «пойдут под суд и лишатся работы».
Очень популярны в сети и мошеннические схемы, когда известные политики, актеры, блогеры и музыканты предлагают «суперприбыльные» схемы вложения денег и розыгрыши ценных призов. Все это ловушки, чтобы выудить персональные данные или деньги.
Дипфейки могут использоваться для создания ложных заявлений от имени политиков, журналистов и блогеров для подрыва доверия и манипулирования общественным мнением. Поддельный контент чаще всего распространяется в неофициальных новостных каналах, которые не имеют государственной аккредитации, но заслужили доверие и уважение аудитории за счет скандальных и шокирующих новостей.
Однако не всегда манипуляции и шантаж направлены только на медийных персон. Бывают случаи, когда в таких схемах главным «героем» становится подросток, чьи поддельные провокационные, унижающие достоинство видео используются злоумышленниками для травли и шантажа. Мошенник угрожает распространить видео с участием жертвы среди друзей и близких, если та откажется играть по его правилам. Как правило, злоумышленник предлагает уничтожить видео в обмен на финансовое вознаграждение. Такие угрозы пугают, загоняют в угол, создают ощущение безысходности. Самое главное в такой ситуации — не пугаться, не замыкаться в себе, а, наоборот, как можно скорее поделиться проблемой с кем-то из взрослых: с родителями, учителем, наставником. Рано или поздно истина восторжествует, и правда будет на стороне пострадавшего.
Раньше, чтобы подделать видео, нужны были профессиональные студии и специальная дорогая техника. Сегодня же ситуация кардинально изменилась: создать реалистичную подделку можно на обычном компьютере и даже смартфоне. Причем технологии ушли так далеко, что для генерации клона голоса близкого вам человека нейросети достаточно всего 3–4 слов, а для создания видеофейка нужно лишь одно фото.
Однако внимательный зритель всегда сможет отличить сгенерированную подделку от оригинала по нескольким признакам:
Пока одни нейросети учатся создавать все более реалистичные дипфейки, другие активно развивают свои технологии, чтобы эти подделки разоблачать. Давайте разберемся, какими ресурсами можно пользоваться прямо в режиме онлайн.
Для проверки видеороликов подойдут:
Для проверки аудиозаписей можно использовать:
Самое главное правило, которое поможет не только защититься от дипфейков и мошенников, но и значительно сократить поток информации, поступающей к нам ежедневно в огромных объемах, — это формировать навык критического мышления. Стоит относиться с легким недоверием буквально ко всему и стараться проверять информацию в нескольких источниках.
Есть и другие правила, которые помогут заметно снизить риск и не попасться на уловки мошенников:
Краткое наименование: АНО «Центр глобальной ИТ-кооперации».
ИНН: 714467033. КПП: 770301001.ОГРН: 1207700468139.
Юридический адрес: 125009, г. Москва, Тверской бульвар, д.14, стр.1, этаж 6, помещ. I, офис 6.
Эл.почта: info@cgitc.ru. Телефон/Факс: + 7 (495) 221 56 06.