21160
Как не стать жертвой дипфейков
Еще недавно кибермошенники звонили только по телефону и, используя, методы социальной инженерии, уговаривали своих жертв совершать различные действия, в результате которых граждане оставались без денег. Однако злоумышленники не стоят на месте – они постоянно изобретают новые схемы обмана.
Дипфейки и нейросеть
Суть схемы заключается в том, что с помощью нейросетей мошенники создают видеоконтент с реалистичным изображением конкретного человека, после чего через мессенджеры и социальные сети обращаются с его помощью к коллегам, друзьям и родственникам «прототипа». Как правило, в таком фейковом видеоконтенте виртуальный герой рассказывает о своей проблеме (болезнь, ДТП, внезапное увольнение) и просит срочно перевести деньги на определенную банковскую карту, счет или номер телефона. Весь расчет сделан на то, что потенциальная жертва, услышав и увидев близкого человека, попавшего в тяжелую ситуацию, поспешит выполнить поступившую просьбу, не испытывая сомнений в подлинности обращающейся к ним личности.
Аналогично дипфейки могут создаваться от якобы работодателей, сотрудников полиции или известных личностей. Например, довольно распространена схема, когда жертве присылают видео, на котором руководитель рассказывает о необходимости прохождения проверки со стороны службы безопасности или правоохранительных органов.
Для создания цифровой копии конкретного человека злоумышленникам нужны его фото и видео, а также образцы голоса. В основном их получают посредством взлома аккаунтов жертв в социальных сетях и мессенджерах.
Буквально несколько лет назад для генерации более-менее правдоподобного дипфейка требовались существенные финансовые затраты, идеальные аудио и видео исходники студийного качества и десятки часов на обучение нейросети. Из-за своей сложности и дороговизны данный способ обмана применялся довольно редко.
За последние 2–3 года технологии сильно шагнули вперед, и сегодня искусственный интеллект может по короткому видео или аудио с телефона за несколько минут создать цифрового двойника человека. Причем голос и изображение виртуального героя в фальшивом видеоролике получаются крайне реалистичными и зачастую их очень сложно отличить от прототипа.
Как распознать дипфейк?
Однако пока что нейросети несовершенны и при внимательном изучении распознать дипфейк можно даже на глаз. В первую очередь обратите внимание на следующие моменты:
· Артефакты изображения — неестественное поведение губ и глаз, замыленное или пикселизированное лицо, множество засветов, несовпадение тона кожи на лице, руках и шее.
· Кадрирование — неестественное положение головы, слишком близкая съемка.
· Проблемы с голосом — монотонный и роботизированный, с короткими фразами и частыми паузами, непривычными ошибками для человека и нестандартной манерой общения.
Чтобы не стать жертвой новой мошеннической схемы, проявляйте максимальную бдительность при получении от своего знакомого либо близкого голосового или видеосообщения с просьбой о финансовой помощи. Помните, что его аккаунт могли взломать злоумышленники.
Как действовать, если вам поступил подобный звонок?
Перед тем, как куда-либо переводить деньги или выполнять иные требования любого лица (пусть даже якобы хорошо знакомого), обратившегося к вам по мессенджеру или телефону, перепроверьте информацию. В идеале лично или по мобильной связи (не через мессенджер) поговорите с тем, от чьего имени поступило сообщение. Если такой возможности нет, задайте в сообщении вопрос, ответ на который знает исключительно этот человек. Также можете попросить сделать что-то на камеру. Например, встать и попрыгать либо помахать рукой перед лицом. Мошенник, скорее всего, откажется, ведь он не сможет оперативно подготовить реалистичный дипфейк по поступившему запросу. В свою очередь настоящий собеседник поймет беспокойство и без проблем выполнит просьбу.
Отдельно напоминаем, что сотрудники правоохранительных органов и специалисты банков никогда не звонят через мессенджеры с использованием видеосвязи и, тем более, никогда не просят выполнять любые финансовые операции.




















