26.05.2023, 16:36
Количество просмотров 435

Прецедент DeepFake-мошенничества в Китае – преступники активно используют ИИ

Общество обеспокоено возможным применением потенциала методов искусственного интеллекта (ИИ) в целях совершения финансовых преступлений.
Прецедент DeepFake-мошенничества в Китае – преступники активно используют ИИ

Очередным поводом стал недавний случай мошенничества с использованием технологии синтеза медиаконтента (DeepFake), имевший место в Северном Китае. В рамках прецедента преступникам удалось убедить пользователя перевести деньги якобы другу, а на самом деле – на счета злоумышленников.

В Китае ужесточен контроль за такими технологиями и приложениями на фоне роста мошенничества с использованием ИИ, в основном связанного с манипуляциями с голосом и чертами лица, а в январе 2023 приняты новые правила для правовой защиты жертв.

В полиции города Баотоу во Внутренней Монголии заявили, что преступник использовал технологию ИИ для создания визуального и голосового подобия друга жертвы во время видеозвонка и получения перевода в сумме 4,3 млн юаней (622 тыс. долл. США) якобы на внесение «другом» залога для участия в торгах.

Потерпевший понял, что его обманули только после того, как его друг сказал, что ничего не знает об этом. Полиция вернула большую часть украденных средств и работает над отслеживанием и возвратом остальных похищенных средств.

Этот случай вызвал на сайте микроблогов Weibo обсуждение проблемы угрозы конфиденциальности и безопасности в Интернете, а хэштег «взрывной рост атак с использованием ИИ по всей стране», набрал более 120 млн просмотров.

«Это показывает, что фотографии, голос и видео могут быть использованы мошенниками, — написал один из пользователей. — Могут ли правила информационной безопасности не отставать от методов преступников?»

 

По материалам Reuters, PLUSworld.r

Рубрика:
{}Безопасность
Новости в вашей почте
mail

PLUSworld в соцсетях:
telegram
vk
youtube