Дипфейки перестали быть экзотикой и превратились в рабочий инструмент преступников, которые атакуют российские компании, госорганизации и обычных граждан. В ЦБ РФ сообщили о росте мошенничеств с их использованием: за последний год – в 2,5 раза. Но есть и хорошие новости. По словам руководителя R&D-лаборатории Центра технологий кибербезопасности ГК «Солар» Максима Бузинова, технологии искусственного интеллекта, и, в частности, большие языковые модели (LLM), значительно снизили «порог входа» для начинающих злоумышленников.
Каждая пятая российская компания уже пострадала от дипфейков, а одной из самых серьезных угроз бизнес считает подмену голоса руководителя. Эксперты сходятся во мнении: это только начало новой эры мошенничества, построенной на социальной инженерии и ИИ. Впрочем, ответ на этот вызов уже формируется: российские ИБ-компании активно разрабатывают и внедряют технологии для борьбы с дипфейками и мошенничеством с использованием биометрии.
Дипфейки в арсенале мошенников – что противопоставить?
Схемы с дипфейками уже поставлены на поток: фишинговые аудио и видео, ролики для вымогательства. Масштаб проблемы подтверждают свежие данные – только за первые три месяца этого года в России выявили более 60 уникальных дипфейков и 2,3 тыс. их копий. Преступники через мессенджеры рассылают голосовые и видеосообщения якобы от коллег или родных, рассказывают вымышленную историю о неприятностях и просят срочно перевести деньги.
С помощью генеративного ИИ преступники ускорили подготовку контента для фишинговых атак, аудио- или дипфейков, с помощью цифровых двойников начали собирать информацию о жертве и выстраивать с ней доверительные отношения. Аудио- и видеодипфейки в 2024 году были поставлены на поток, так как преступники усовершенствовали технологии их создания, используя базы голосов, записи войсов и сторис, которыми люди делятся в мессенджерах.
Качество подделок выросло одновременно с развитием генеративно-состязательных сетей, и теперь атаки можно разделить на два типа. Дипфейки низкого качества используются для массовых кампаний, нацеленных на рядовых пользователей и сотрудников компаний.
При этом для атак на топ-менеджеров мошенники более тщательно прорабатывают «жертву», выясняют детали, которые могут вызвать доверие, и создают дипфейк высокого качества, чтобы склонить во время звонка или ВКС к нужным действиям: вывести деньги «доверенному» лицу, на специальный счет или в иностранную юрисдикцию. На подготовку одной такой атаки в 2024 году мошенники могли потратить не менее 1–1,5 млн рублей (аренда серверов, команда дата-сайентистов, ПО). И эти суммы окупались в случае успеха. Но такие атаки не могут быть массовыми, так как ориентированы на конкретного человека и требуют детальной проработки.
Пока технология развивается, а вместе с ней и арсенал мошенников, государство ищет способы защиты. В России ставку делают на законодательные меры. Ключевая идея, обсуждаемая на государственном уровне, – не пытаться распознать все более совершенную подделку, а маркировать оригинал. Предполагается, что такая маркировка должна появиться на всех национальных платформах. Вдобавок осенью в Госдуме рассмотрят второй пакет «антимошеннических» поправок, который может ввести уголовную ответственность за создание дипфейков в преступных целях.
Особое внимание уделяется защите мессенджеров, которые остаются уязвимым звеном. Именно через них мошенники не только распространяют дипфейки, но и получают данные для их создания. По данным экспертов «Солара», 35% утечек корпоративной информации происходят именно через мессенджеры.
Дипфейки против биометрии
Следующая очевидная мишень для дипфейков – биометрические данные граждан. Россия делает на них большую ставку как на безопасный способ идентификации: по лицу и голосу уже можно оплачивать покупки, получать услуги в МФЦ, а с 2026 года – проводить сделки с недвижимостью.
Государство активно продвигает Единую биометрическую систему (ЕБС), где, по данным Минцифры, уже зарегистрированы 18 млн россиян. И доверие к технологии постепенно растет: все больше людей считают биометрию надежным способом подтверждения личности, особенно для защиты от мошенников с кредитами.
Хотя ЕБС защищает данные внутри системы, сама природа биометрии создает особый риск. Ведь пароль можно сменить, а «украденные» лицо и голос – нет. Мошенники это прекрасно понимают и уже охотятся за биометрией: просят жертв под разными предлогами отсканировать лицо или записать голос.
И здесь все решает скорость. Исследование R&D-лаборатории Центра технологий кибербезопасности «Солара» показало, что точно распознать нарушителя-человека можно за восемь минут, а бота — за две секунды. Но и этого времени может быть достаточно для похищения чувствительной корпоративной или личной информации с устройства.
Российский рынок кибербезопасности уже предлагает решения для контроля утечек через мессенджеры или почту, которые способны распознавать конфиденциальные данные даже в измененных файлах.
Будущее киберзащиты, вероятно, за гибридными системами, где биометрия сочетается с другими параметрами. Разработчикам предстоит гонка со временем. Нужно успеть, пока дипфейки не обесценили саму идею биометрической идентификации, и наши уникальные данные – отпечаток пальца или рисунок радужки – не перестали доказывать, что мы это мы.
Впрочем, мошенникам тоже стоит побеспокоиться за свою биометрию. По поручению правительства уже создается единая база биометрических данных преступников.
С помощью биометрии мессенджеры могли бы различать голос или внешность мошенника на основании цифровых слепков и мгновенно оповещать человека о том, кто на другом конце «провода». Банки смогли бы автоматически реагировать на коммуникацию с таким лицом, блокируя заявки на кредит или крупные переводы. Сервисы госуслуг могли бы предупреждать пользователей, что те взаимодействуют с недобросовестным лицом, а корпоративные средства защиты — вовремя сигнализировать службе безопасности о появлении потенциальных угроз.
Технологии для такой защиты уже разрабатываются. Например, мы развиваем прототип решения с динамической биометрией, чтобы определить, как человек работает с устройствами ввода (мышь, клавиатура, тачпад). Если злоумышленник воспользуется чужим компьютером или войдет в систему удаленно, по манере его работы с устройствами ввода можно будет отличить его от легитимного пользователя. Также мы занимаемся распознаванием лиц, эмоций и речи.
Риски внедрения
Несмотря на перспективы, эксперт призывает взвешенно подходить к реализации таких инициатив, учитывая защиту частной жизни граждан.
Очевидно, что для сбора и обработки данных будут использоваться механизмы машинного обучения. Поэтому важно предусмотреть меры безопасности как для самой базы датасетов ML-моделей, так и для точности распознавания алгоритмами. Необходимо обеспечить регулярное обновление такой базы, наладить работу по исправлению ложных срабатываний. И конечно же, стоит учитывать риски атак, в которых используются цифровые двойники, полностью сгенерированные ИИ.
Фото: предоставлено автором