Пересечение DeFi и ИИ требует прозрачной безопасности.

Мнение от: Jason Jiang, главный операционный директор CertiK

С момента своего появления экосистема децентрализованных финансов (DeFi) определялась инновациями: от децентрализованных бирж (DEX) до протоколов кредитования и заимствования, стейблкоинов и многого другого.

Последняя инновация — DeFAI, или DeFi, работающая на основе искусственного интеллекта. В рамках DeFAI автономные боты, обученные на больших наборах данных, могут значительно повысить эффективность, выполняя сделки, управляя рисками и участвуя в протоколах управления.

Однако, как и в случае любых инноваций на основе блокчейна, DeFAI также может привести к новым векторам атак, которые криптосообществу необходимо решить для повышения безопасности пользователей. Это требует тщательного изучения уязвимостей, возникающих в результате инноваций, чтобы обеспечить безопасность.

Агенты DeFAI — шаг вперед по сравнению с традиционными смарт-контрактами

В блокчейне большинство смарт-контрактов традиционно работали на простой логике. Например, «Если произойдет X, то выполнится Y». Благодаря своей встроенной прозрачности такие смарт-контракты можно аудировать и проверять.

DeFAI, напротив, отходит от традиционной структуры смарт-контрактов, поскольку его агенты ИИ по своей природе вероятностны. Эти агенты ИИ принимают решения на основе постоянно меняющихся наборов данных, предыдущих входных данных и контекста. Они могут интерпретировать сигналы и адаптироваться вместо того, чтобы реагировать на предопределенное событие. Хотя некоторые могут справедливо утверждать, что этот процесс обеспечивает сложные инновации, он также создает благоприятную среду для ошибок и эксплойтов из-за присущей ему неопределенности.

На сегодняшний день ранние итерации торговых ботов на базе ИИ в децентрализованных протоколах сигнализируют о переходе к DeFAI. Например, пользователи или децентрализованные автономные организации (DAO) могут реализовать бота для сканирования конкретных рыночных закономерностей и выполнения сделок за считанные секунды. Несмотря на то, что это звучит инновационно, большинство ботов работают на инфраструктуре Web2, перенося в Web3 уязвимость централизованной точки отказа.

DeFAI создает новые поверхности атаки

Отрасли не следует увлекаться внедрением ИИ в децентрализованные протоколы, когда этот переход может создать новые поверхности атаки, к которым она не готова. Злоумышленники могут эксплуатировать агенты ИИ посредством манипулирования моделями, отравления данных или атак на основе состязательных входных данных.

Это наглядно демонстрируется агентом ИИ, обученным для выявления арбитражных возможностей между DEX.

Злоумышленники могут вмешаться в его входные данные, заставив агента выполнять убыточные сделки или даже выводить средства из пула ликвидности. Кроме того, скомпрометированный агент может ввести в заблуждение весь протокол, заставив его поверить в ложную информацию, или послужить отправной точкой для более крупных атак.

Эти риски усугубляются тем фактом, что большинство агентов ИИ в настоящее время являются «черными ящиками». Даже для разработчиков возможности принятия решений агентами ИИ, которые они создают, могут быть непрозрачными.

Эти особенности противоположны философии Web3, которая строилась на прозрачности и проверяемости.

Безопасность — это общая ответственность

Учитывая эти риски, могут возникнуть опасения по поводу последствий DeFAI, что потенциально может привести к приостановке этой разработки. Однако, вероятно, что DeFAI продолжит развиваться и получит более широкое распространение. Следовательно, необходимо адаптировать подход отрасли к безопасности. Экосистемам, включающим DeFAI, вероятно, потребуется стандартная модель безопасности, в которой разработчики, пользователи и сторонние аудиторы определят наилучшие способы обеспечения безопасности и снижения рисков.

Агенты ИИ должны рассматриваться как любая другая часть инфраструктуры onchain: со скептицизмом и тщательным анализом. Это предполагает строгий аудит их логики кода, моделирование наихудших сценариев и даже использование упражнений «красной команды», чтобы выявить векторы атак до того, как злоумышленники смогут их использовать. Кроме того, отрасли необходимо разработать стандарты прозрачности, такие как модели с открытым исходным кодом или документация.

Независимо от того, как отрасль относится к этому переходу, DeFAI ставит новые вопросы, когда дело доходит до доверия к децентрализованным системам. Когда агенты ИИ могут автономно хранить активы, взаимодействовать со смарт-контрактами и голосовать по предложениям по управлению, доверие заключается не только в проверке логики, но и в проверке намерений. Это требует изучения того, как пользователи могут гарантировать, что цели агента соответствуют краткосрочным и долгосрочным целям.

К безопасной и прозрачной разведке

Путь вперед должен быть основан на междисциплинарных решениях. Криптографические методы, такие как доказательства с нулевым разглашением, могут помочь проверить целостность действий ИИ, а структуры аттестации onchain могут помочь проследить происхождение решений. Наконец, инструменты аудита с элементами ИИ могут оценивать агентов так же тщательно, как разработчики в настоящее время проверяют код смарт-контрактов.

Однако реальность такова, что отрасль еще не готова. Пока строгий аудит, прозрачность и стресс-тестирование остаются лучшей защитой. Пользователи, рассматривающие возможность участия в протоколах DeFAI, должны убедиться, что протоколы придерживаются этих принципов в логике ИИ, которая ими движет.

Обеспечение будущего инноваций ИИ

DeFAI не является небезопасным по своей природе, но отличается от большей части текущей инфраструктуры Web3. Скорость его внедрения рискует опередить структуры безопасности, на которые в настоящее время полагается отрасль. Как криптоиндустрия продолжает учиться (часто горьким опытом), инновации без безопасности — это рецепт катастрофы.

Учитывая, что агенты ИИ скоро смогут действовать от имени пользователей, хранить их активы и формировать протоколы, отрасль должна признать тот факт, что каждая строка логики ИИ по-прежнему является кодом, и каждую строку кода можно использовать в эксплойте.

Если внедрение DeFAI должно произойти без ущерба для безопасности, оно должно быть разработано с учетом безопасности и прозрачности. Что-либо меньшее приглашает те результаты, которые децентрализация была призвана предотвратить.

Мнение от: Jason Jiang, главного операционного директора CertiK.

Эта статья предназначена для общих информационных целей и не должна рассматриваться как юридическая или инвестиционная консультация.