Преступники используют ИИ для манипуляций на беспрецедентном уровне: Anthropic

Преступники используют AI для «вайб-хакинга» на беспрецедентном уровне: Anthropic

Автор: Brayden Lindrea

Несмотря на «продвинутые» системы защиты, компания Anthropic, занимающаяся AI-инфраструктурой, заявила, что киберпреступники все еще находят способы использовать ее AI-чат-бота Claude для осуществления масштабных кибератак.

В отчете «Threat Intelligence», опубликованном в среду, члены команды Threat Intelligence компании Anthropic, включая Alex Moix, Ken Lebedev и Jacob Klein, поделились несколькими случаями злоупотребления чат-ботом Claude, в результате которых злоумышленники требовали выкуп более чем в 500 000 долларов США.

Они обнаружили, что чат-бот использовался не только для предоставления технических консультаций преступникам, но и для непосредственного осуществления взломов от их имени посредством «вайб-хакинга», позволяющего им совершать атаки, обладая лишь базовыми знаниями программирования и шифрования.

Вайб-хакинг — это социальная инженерия с использованием AI для манипулирования человеческими эмоциями, доверием и принятием решений. В феврале компания Chainalysis, специализирующаяся на безопасности блокчейна, прогнозировала, что 2025 год может стать рекордным по количеству крипто-мошенничеств, поскольку генеративный AI сделал атаки более масштабируемыми и доступными.

Anthropic обнаружила одного хакера, который использовал Claude для «вайб-хакинга» с целью кражи конфиденциальных данных как минимум у 17 организаций, включая медицинские учреждения, службы экстренной помощи, государственные и религиозные организации, при этом требуемый выкуп варьировался от 75 000 до 500 000 долларов США в Bitcoin.

A simulated ransom note demonstrates how cybercriminals leverage Claude to make threats. Source: Anthropic

Хакер обучил Claude оценивать украденные финансовые документы, рассчитывать соответствующие суммы выкупа и составлять индивидуальные записки с требованием выкупа, чтобы максимально усилить психологическое давление.

Хотя Anthropic впоследствии заблокировала злоумышленника, этот инцидент отражает то, как AI облегчает даже начинающим программистам совершение киберпреступлений в «беспрецедентной степени».

«Действующие лица, которые не могут самостоятельно реализовать базовое шифрование или понимать механику системных вызовов, теперь успешно создают программы-вымогатели со способностями к обходу защиты [и] реализуют методы защиты от анализа».

IT-специалисты из Северной Кореи также использовали Claude от Anthropic

Anthropic также обнаружила, что IT-специалисты из Северной Кореи используют Claude для создания убедительных поддельных удостоверений личности, прохождения технических собеседований и даже получения удаленной работы в американских технологических компаниях, входящих в Fortune 500. Они также использовали Claude для подготовки ответов на собеседованиях на эти должности.

Как заявила Anthropic, Claude также использовался для выполнения технической работы после трудоустройства, отметив, что схемы трудоустройства были разработаны для перенаправления прибыли режиму Северной Кореи, несмотря на международные санкции.

Breakdown of Claude-powered tasks North Korean IT workers have used. Source: Anthropic

Ранее в этом месяце IT-специалист из Северной Кореи был взломан, и было обнаружено, что команда из шести человек использовала как минимум 31 поддельное удостоверение личности, получив все: от государственных удостоверений личности и телефонных номеров до учетных записей LinkedIn и UpWork, чтобы скрыть свою истинную личность и получить работу в сфере криптовалют.

Один из сотрудников якобы проходил собеседование на должность full-stack разработчика в Polygon Labs, а другие доказательства показали заскриптованные ответы на собеседованиях, в которых они заявляли, что имеют опыт работы на NFT-маркетплейсе OpenSea и поставщике оракулов Chainlink.

Anthropic заявила, что ее новый отчет направлен на публичное обсуждение случаев злоупотреблений, чтобы помочь более широкому сообществу AI-безопасности и усилить общую отраслевую защиту от злоумышленников, использующих AI.

Компания заявила, что, несмотря на внедрение «продвинутых мер безопасности», злоумышленники продолжают находить способы их обойти.