Рост искусственного интеллекта стимулирует резкий рост мошенничества в сфере криптовалют, при этом технология дипфейков подстегивает всплеск изощренных афер, согласно новому отчету.
В первом квартале 2025 года было ликвидировано как минимум 87 мошеннических схем, использующих дипфейки, сгенерированные искусственным интеллектом, согласно Антимошенническому исследованию 2025 года, подготовленному совместно криптовалютной биржей Bitget, компанией по обеспечению безопасности блокчейна SlowMist и аналитической компанией Elliptic.
В отчете также указывается, что мошенничество с криптовалютами достигло 4,6 миллиарда долларов в 2024 году, что на 24% больше, чем в предыдущем году. Почти 40% случаев мошенничества с высокой стоимостью включали технологии дипфейков, при этом мошенники все чаще используют сложные имитации публичных фигур, основателей и руководителей платформ для обмана пользователей.
Распределение причин инцидентов безопасности в 2024 году Источник: SlowMist
«Скорость, с которой мошенники теперь могут генерировать синтетические видео, в сочетании с вирусной природой социальных сетей, дает дипфейкам уникальное преимущество как в охвате, так и в правдоподобности», — заявила Gracy Chen, генеральный директор Bitget.
Дипфейки представляют новую угрозу
В отчете подробно описывается анатомия современных криптовалютных мошенничеств, указывая на три основные категории: дипфейк-имитации, сгенерированные искусственным интеллектом, схемы социальной инженерии и мошенничества в стиле Понци, замаскированные под децентрализованные финансы (DeFi) или GameFi проекты. В отчете предупреждается, что дипфейки особенно трудно обнаружить.
Искусственный интеллект может имитировать текст, голосовые сообщения, выражения лица и даже действия. Например, фальшивые видео-подтверждения инвестиционных платформ от публичных фигур, таких как премьер-министр Сингапура и Илон Маск, используются в качестве тактики для эксплуатации общественного доверия через Telegram, X и другие социальные сети.
Фальшивое видео премьер-министра Сингапура Ли Сяньлуна Источник: Lianhe Morning Newspaper
Искусственный интеллект может даже имитировать реакции в реальном времени, что делает эти мошенничества все более и более трудными для отличия от реальности. Sandeep Nailwal, соучредитель блокчейн-платформы Polygon, выразил обеспокоенность в посте от 13 мая в X, сообщив, что злоумышленники выдавали себя за него через Zoom.
Он упомянул, что несколько человек связались с ним в Telegram, спрашивая, был ли он на Zoom-звонке с ними и просил ли их установить скрипт.
Генеральный директор SlowMist Ю Сянь призвал пользователей проверять легитимность ссылок Zoom и доменных имен, чтобы не стать жертвами мошенничества с видео-имитацией.
Генеральный директор SlowMist публикует предупреждение о дипфейках Источник: Cos
Новые угрозы мошенничества требуют более разумной защиты
По мере того как дипфейк-мошенничества становятся все более убедительными, эксперты по безопасности говорят, что образование и бдительность имеют решающее значение. Для учреждений регулярное обучение безопасности и надежная техническая защита необходимы, говорится в отчете. Компаниям рекомендуется проводить симуляции фишинга, защищать электронные почтовые системы и отслеживать код на предмет утечек. Создание культуры безопасности в первую очередь, где сотрудники проверяют, прежде чем доверять, — лучший способ остановить мошенничество, прежде чем оно начнется, добавлено в отчете.
Руководство по предотвращению мошенничества Источник: Антимошеннический отчет 2025 года
Chen предложила обычным пользователям простой подход: «Проверяйте, изолируйте и замедляйтесь». Она добавила:
«Всегда проверяйте информацию на официальных веб-сайтах или в доверенных учетных записях в социальных сетях — никогда не полагайтесь на ссылки, которыми делятся в чатах Telegram или комментариях Twitter».
Chen также подчеркнула важность изоляции рискованных действий, используя отдельные кошельки при изучении новых платформ.