Децентрализованные GPU-сети позиционируют себя как более экономичный слой для запуска ИИ-рабочих нагрузок, в то время как обучение самых современных моделей остается сосредоточено в гипермасштабируемых центрах обработки данных.
Передовое обучение ИИ включает в себя создание крупнейших и самых продвинутых систем, процесс, требующий тысяч GPU для работы в тесной синхронизации.
Такой уровень координации делает децентрализованные сети непрактичными для передового обучения ИИ, где интернет-задержки и надежность не могут сравниться с тесно связанным оборудованием в централизованных центрах обработки данных.
Большинство ИИ-рабочих нагрузок в производственной среде не похожи на крупномасштабное обучение моделей, открывая пространство для децентрализованных сетей для обработки вывода данных и повседневных задач.
«Мы начинаем видеть, что многие модели с открытым исходным кодом и другие становятся достаточно компактными и оптимизированными для очень эффективной работы на потребительских GPU», — рассказал Митч Лю, соучредитель и генеральный директор Theta Network, Cointelegraph. «Это создает переход к моделям с открытым исходным кодом, более эффективным моделям и более экономичным подходам к обработке».
Обучение передовых моделей ИИ требует большого количества GPU и остается сосредоточено в гипермасштабируемых центрах обработки данных. Источник: Derya Unutmaz
От передового обучения ИИ к ежедневному выводу данных
Передовое обучение сосредоточено среди нескольких операторов гипермасштаба, поскольку запуск больших задач обучения является дорогостоящим и сложным. Новейшее оборудование для ИИ, такое как Nvidia Vera Rubin, предназначено для оптимизации производительности в интегрированных средах центров обработки данных.
«Вы можете рассматривать передовое обучение моделей ИИ как строительство небоскреба», — сказал Нökkvi Dan Ellidason, генеральный директор инфраструктурной компании Ovia Systems (ранее Gaimin), Cointelegraph. «В централизованном центре обработки данных все рабочие находятся на одних строительных лесах, передавая кирпичи вручную».
Такой уровень интеграции оставляет мало места для рыхлой координации и переменной задержки, типичной для распределенных сетей.
«Чтобы построить тот же небоскреб [в децентрализованной сети], им пришлось бы отправлять каждый кирпич друг другу по открытому интернету, что крайне неэффективно», — продолжил Эллидасон.
ИИ-гиганты продолжают поглощать растущую долю глобальных поставок GPU. Источник: Sam Altman
Meta обучила свою ИИ-модель Llama 4, используя кластер из более чем 100 000 GPU Nvidia H100. OpenAI не раскрывает размер кластеров GPU, используемых для обучения своих моделей, но руководитель инфраструктуры Анудж Сахаран сообщил, что GPT-5 был запущен с поддержкой более чем 200 000 GPU, не уточняя, какая часть этой мощности использовалась для обучения или вывода данных, или других рабочих нагрузок.
Вывод данных (inference) относится к запуску обученных моделей для генерации ответов для пользователей и приложений. Эллидасон сказал, что рынок ИИ достиг «точки перегиба вывода данных». Если в 2024 году обучение доминировало в спросе на GPU, то по его оценкам, к 2026 году до 70% спроса будет обусловлено выводом данных, агентами и прогностическими рабочими нагрузками.
«Это превратило вычисления из исследовательских затрат в непрерывные, масштабируемые затраты на утилиты», — сказал Эллидасон. «Таким образом, мультипликатор спроса за счет внутренних циклов делает децентрализованные вычисления жизнеспособным вариантом в разговоре о гибридных вычислениях».
Где на самом деле вписываются децентрализованные GPU-сети
Децентрализованные GPU-сети лучше всего подходят для рабочих нагрузок, которые можно разделить, маршрутизировать и выполнять независимо, без необходимости постоянной синхронизации между машинами.
«Вывод данных - это бизнес объемов, и он масштабируется с каждой развернутой моделью и агентурным циклом», — рассказал Евгений Пономарев, соучредитель платформы децентрализованных вычислений Fluence, Cointelegraph. «Именно там важны стоимость, масштабируемость и географическое распространение, а не идеальные соединения».
На практике это делает децентрализованные и игровые GPU в потребительских средах более подходящими для производственных рабочих нагрузок, которые отдают приоритет пропускной способности и гибкости, а не тесной координации.
_Низкие почасовые цены на потребительские GPU иллюстрируют, почему децентрализованные сети ориентированы на вывод данных, а не на крупномасштабное обучение моделей. Источник: _Salad.com
«Потребительские GPU с меньшим объемом VRAM и домашним подключением к Интернету не подходят для обучения или рабочих нагрузок, которые сильно чувствительны к задержкам», — заявил Боб Майлс, генеральный директор Salad Technologies — агрегатора неиспользуемых потребительских GPU, Cointelegraph.
«Сегодня они больше подходят для обнаружения лекарств с помощью ИИ, преобразования текста в изображение/видео и крупномасштабных конвейеров обработки данных — для любой рабочей нагрузки, чувствительной к стоимости, потребительские GPU превосходны по соотношению цены и производительности».
Децентрализованные GPU-сети также хорошо подходят для таких задач, как сбор, очистка и подготовка данных для обучения моделей. Эти задачи часто требуют широкого доступа к открытому вебу и могут выполняться параллельно без тесной координации.
Выполнить такую работу эффективно в гипермасштабируемых центрах обработки данных сложно без обширной прокси-инфраструктуры, сказал Майлс.
При обслуживании пользователей по всему миру децентрализованная модель может иметь географическое преимущество, поскольку она может уменьшить расстояние, которое должны преодолеть запросы, и количество сетевых переходов, прежде чем они достигнут центра обработки данных, что может увеличить задержку.
«В децентрализованной модели GPU распределены по многим местам по всему миру, часто гораздо ближе к конечным пользователям. В результате задержка между пользователем и GPU может быть значительно ниже, чем при маршрутизации трафика в централизованный центр обработки данных», — сказал Лю из Theta Network.
Theta Network столкнулась с судебным иском, поданным в Лос-Анджелесе в декабре 2025 года двумя бывшими сотрудниками, утверждающими о мошенничестве и манипулировании токенами. Лю сказал, что не может комментировать дело, поскольку оно находится в стадии судебного разбирательства. Theta ранее отрицала эти обвинения.
Дополнительный уровень в вычислениях ИИ
Передовое обучение ИИ останется централизованным в обозримом будущем, но вычисления ИИ переключаются на вывод данных, агентов и производственные рабочие нагрузки, которые требуют более рыхлой координации. Эти рабочие нагрузки поощряют экономическую эффективность, географическое распределение и масштабируемость.
«Этот цикл привел к появлению многих моделей с открытым исходным кодом, которые не соответствуют масштабу систем, таких как ChatGPT, но все же способны работать на персональных компьютерах, оснащенных GPU, такими как RTX 4090 или 5090», — рассказал соучредитель и технический директор Theta Network, Jieyi Long, Cointelegraph.
С таким уровнем оборудования пользователи могут запускать диффузионные модели, модели 3D-реконструкции и другие значимые рабочие нагрузки локально, создавая возможность для розничных пользователей делиться своими ресурсами GPU, по словам Long.
Децентрализованные GPU-сети не заменяют гипермасштабируемые, но становятся дополнительным уровнем.
По мере того, как потребительское оборудование становится более мощным, а модели с открытым исходным кодом становятся более эффективными, расширяющийся класс задач ИИ может выйти за пределы централизованных центров обработки данных, позволяя децентрализованным моделям вписаться в стек ИИ.