16.06.2025, 09:58
Количество просмотров 21160

Как не стать жертвой дипфейков

В последнее время на фоне стремительного развития технологий искусственного интеллекта растет количество случаев мошенничества с использованием технологии DeepFake. О том, как уберечь себя и своих близких от нового вида мошенничества, порталу PLUSworld рассказывает начальник отдела информационной безопасности банка Хлынов Андрей Попов.
Как не стать жертвой дипфейков

Еще недавно кибермошенники звонили только по телефону и, используя, методы социальной инженерии, уговаривали своих жертв совершать различные действия, в результате которых граждане оставались без денег. Однако злоумышленники не стоят на месте они постоянно изобретают новые схемы обмана.

Дипфейки и нейросеть

Суть схемы заключается в том, что с помощью нейросетей мошенники создают видеоконтент с реалистичным изображением конкретного человека, после чего через мессенджеры и социальные сети обращаются с его помощью к коллегам, друзьям и родственникам «прототипа». Как правило, в таком фейковом видеоконтенте виртуальный герой рассказывает о своей проблеме (болезнь, ДТП, внезапное увольнение) и просит срочно перевести деньги на определенную банковскую карту, счет или номер телефона. Весь расчет сделан на то, что потенциальная жертва, услышав и увидев близкого человека, попавшего в тяжелую ситуацию, поспешит выполнить поступившую просьбу, не испытывая сомнений в подлинности обращающейся к ним личности.

Аналогично дипфейки могут создаваться от якобы работодателей, сотрудников полиции или известных личностей. Например, довольно распространена схема, когда жертве присылают видео, на котором руководитель рассказывает о необходимости прохождения проверки со стороны службы безопасности или правоохранительных органов.

Для создания цифровой копии конкретного человека злоумышленникам нужны его фото и видео, а также образцы голоса. В основном их получают посредством взлома аккаунтов жертв в социальных сетях и мессенджерах.

Буквально несколько лет назад для генерации более-менее правдоподобного дипфейка требовались существенные финансовые затраты, идеальные аудио и видео исходники студийного качества и десятки часов на обучение нейросети. Из-за своей сложности и дороговизны данный способ обмана применялся довольно редко.

За последние 2–3 года технологии сильно шагнули вперед, и сегодня искусственный интеллект может по короткому видео или аудио с телефона за несколько минут создать цифрового двойника человека. Причем голос и изображение виртуального героя в фальшивом видеоролике получаются крайне реалистичными и зачастую их очень сложно отличить от прототипа.

Как распознать дипфейк?

Однако пока что нейросети несовершенны и при внимательном изучении распознать дипфейк можно даже на глаз. В первую очередь обратите внимание на следующие моменты:

·      Артефакты изображения — неестественное поведение губ и глаз, замыленное или пикселизированное лицо, множество засветов, несовпадение тона кожи на лице, руках и шее.

·      Кадрирование — неестественное положение головы, слишком близкая съемка.

·      Проблемы с голосом — монотонный и роботизированный, с короткими фразами и частыми паузами, непривычными ошибками для человека и нестандартной манерой общения.

Чтобы не стать жертвой новой мошеннической схемы, проявляйте максимальную бдительность при получении от своего знакомого либо близкого голосового или видеосообщения с просьбой о финансовой помощи. Помните, что его аккаунт могли взломать злоумышленники.

Как действовать, если вам поступил подобный звонок?

Перед тем, как куда-либо переводить деньги или выполнять иные требования любого лица (пусть даже якобы хорошо знакомого), обратившегося к вам по мессенджеру или телефону, перепроверьте информацию. В идеале лично или по мобильной связи (не через мессенджер) поговорите с тем, от чьего имени поступило сообщение. Если такой возможности нет, задайте в сообщении вопрос, ответ на который знает исключительно этот человек. Также можете попросить сделать что-то на камеру. Например, встать и попрыгать либо помахать рукой перед лицом. Мошенник, скорее всего, откажется, ведь он не сможет оперативно подготовить реалистичный дипфейк по поступившему запросу. В свою очередь настоящий собеседник поймет беспокойство и без проблем выполнит просьбу.

Отдельно напоминаем, что сотрудники правоохранительных органов и специалисты банков никогда не звонят через мессенджеры с использованием видеосвязи и, тем более, никогда не просят выполнять любые финансовые операции.

Рубрика:
{}Безопасность
Новости в вашей почте
mail

PLUSworld в соцсетях:
telegram
vk
dzen
youtube