Соучредитель Ethereum Виталик Бутерин предостерег от использования искусственного интеллекта в процессах управления криптопроектами, поскольку злоумышленники могут эксплуатировать эту технологию.
«Если вы используете ИИ для распределения финансирования за вклад, люди обязательно добавят взлом и запрос на получение всех средств в как можно больше мест», — написал Бутерин в посте в X (ранее Twitter) в субботу.
Бутерин ответил на видео Эйто Миямуры, создателя AI-платформы данных EdisonWatch, в котором показано, что новая функция, добавленная в среду в OpenAI’s ChatGPT, может быть использована для утечки конфиденциальной информации.
Многие пользователи криптовалют приняли ИИ для создания сложных торговых ботов и агентов для управления своими портфелями, что привело к идее о том, что эта технология может помочь группам управления в реализации части или всего протокола криптовалюты.
Бутерин предлагает альтернативную идею
Бутерин заявил, что недавняя уязвимость ChatGPT — это причина, по которой «наивное «ИИ-управление» — плохая идея», и предложил альтернативный подход, названный «подходом информационного финансирования» (info finance).
«У вас есть открытый рынок, где каждый может внести свой вклад в модели, которые подвергаются выборочной проверке, которую может инициировать любой пользователь и оценить группа экспертов», — объяснил он.
Это также объясняет, почему наивное «ИИ-управление» — плохая идея.
Если вы используете ИИ для распределения финансирования за вклад, люди обязательно добавят взлом и запрос на получение всех средств в как можно больше мест.
В качестве альтернативы я поддерживаю подход информационного финансирования (info finance) (https://t.co/Os5I1voKCV… https://t.co/a5EYH6Rmz9
— vitalik.eth (@VitalikButerin) 13 сентября 2025
Бутерин писал об информационном финансировании в ноябре 2024 года, сказав, что оно работает, начиная с «факта, который вы хотите узнать», а затем разрабатывает рынок «для оптимального получения этой информации от участников рынка», и выступал за рынки прогнозирования как способ сбора информации о будущих событиях.
«Этот тип «проектирования институтов», когда вы создаете открытую возможность для использования внешних LLM, а не жестко кодируете один LLM самостоятельно, по своей природе более устойчив», — написал Бутерин в своем последнем посте в X.
«Это дает вам разнообразие моделей в реальном времени и, поскольку создает встроенные стимулы как для подающих модели, так и для внешних спекулянтов, отслеживать эти проблемы и быстро их исправлять», — добавил он.
Последнее обновление ChatGPT — это «серьезный риск для безопасности»
В среду OpenAI обновила ChatGPT, добавив поддержку инструментов Model Context Protocol — стандарта для интеграции AI-моделей с другим программным обеспечением для функционирования в качестве агентов.
Миямура написал в своем посте в X, что смог заставить модель раскрыть конфиденциальные данные электронной почты, используя только адрес электронной почты жертвы, добавив, что обновление «представляет серьезный риск для безопасности».
Он сказал, что злоумышленник может отправить приглашение в календарь жертве по электронной почте с «взламывающим запросом» и, не дожидаясь подтверждения приглашения жертвой, ChatGPT может быть взломан.
Когда жертва попросит ChatGPT просмотреть ее календарь, ИИ прочитает приглашение с запросом и будет «перехвачен злоумышленником и будет действовать по его команде», что может быть использовано для поиска электронной почты и пересылки ее злоумышленнику.
Миямура отметил, что обновление требует ручного одобрения человека, «но усталость от принятия решений — реальная вещь, и обычные люди просто доверят ИИ, не зная, что делать, и нажмут «Подтвердить»».
«ИИ может быть очень умным, но его можно обмануть и фишинговать чрезвычайно глупыми способами, чтобы раскрыть ваши данные», — добавил он.
Взгляд ИИ: «Случайные взломы» и связь ChatGPT с убийством и самоубийством