Прецедент DeepFake-мошенничества в Китае – преступники активно используют ИИ
Очередным поводом стал недавний случай мошенничества с использованием технологии синтеза медиаконтента (DeepFake), имевший место в Северном Китае. В рамках прецедента преступникам удалось убедить пользователя перевести деньги якобы другу, а на самом деле – на счета злоумышленников.
В Китае ужесточен контроль за такими технологиями и приложениями на фоне роста мошенничества с использованием ИИ, в основном связанного с манипуляциями с голосом и чертами лица, а в январе 2023 приняты новые правила для правовой защиты жертв.
В полиции города Баотоу во Внутренней Монголии заявили, что преступник использовал технологию ИИ для создания визуального и голосового подобия друга жертвы во время видеозвонка и получения перевода в сумме 4,3 млн юаней (622 тыс. долл. США) якобы на внесение «другом» залога для участия в торгах.
Потерпевший понял, что его обманули только после того, как его друг сказал, что ничего не знает об этом. Полиция вернула большую часть украденных средств и работает над отслеживанием и возвратом остальных похищенных средств.
Этот случай вызвал на сайте микроблогов Weibo обсуждение проблемы угрозы конфиденциальности и безопасности в Интернете, а хэштег «взрывной рост атак с использованием ИИ по всей стране», набрал более 120 млн просмотров.
«Это показывает, что фотографии, голос и видео могут быть использованы мошенниками, — написал один из пользователей. — Могут ли правила информационной безопасности не отставать от методов преступников?»
По материалам Reuters, PLUSworld.r