Одержимость ИИ графическими процессорами ослепляет нас для более дешевого и разумного решения

Мнение автора: Naman Kabra, соучредитель и генеральный директор NodeOps Network

Графические процессоры (GPU) стали стандартным аппаратным обеспечением для многих рабочих нагрузок ИИ, особенно при обучении больших моделей. Эта точка зрения повсеместна. И хотя в некоторых контекстах это имеет смысл, это также создало слепое пятно, которое нас сдерживает.

GPU заслужили свою репутацию. Они невероятно эффективны при обработке огромных объемов данных параллельно, что делает их идеальными для обучения больших языковых моделей или выполнения высокоскоростного ИИ-вывода. Именно поэтому компании, такие как OpenAI, Google и Meta, тратят много денег на создание GPU-кластеров.

Несмотря на то, что GPU предпочтительны для запуска ИИ, мы не можем забывать о центральных процессорах (CPU), которые по-прежнему очень способны. Игнорирование этого может стоить нам времени, денег и возможностей.

CPU не устарели. Больше людей должны осознать, что их можно использовать для задач ИИ. Они простаивают на миллионах машин по всему миру, способны эффективно и недорого выполнять широкий спектр задач ИИ, если мы дадим им шанс.

Где CPU сияют в ИИ

Легко понять, как мы сюда пришли. GPU созданы для параллелизма. Они могут одновременно обрабатывать огромные объемы данных, что отлично подходит для таких задач, как распознавание изображений или обучение чат-бота с миллиардами параметров. CPU не могут конкурировать в этих задачах.

Но ИИ - это не только обучение моделей. Это не только высокоскоростные матричные вычисления. Сегодня ИИ включает в себя такие задачи, как запуск небольших моделей, интерпретация данных, управление цепочками логики, принятие решений, извлечение документов и ответы на вопросы. Это не просто "глупые вычисления". Они требуют гибкого мышления. Они требуют логики. Им нужны CPU.

В то время как GPU попадают во все заголовки, CPU тихо обеспечивают основу для многих рабочих процессов ИИ, особенно если присмотреться к тому, как системы ИИ фактически работают в реальном мире.

_ Недавние новости:_ «Наши GPU плавятся» — OpenAI устанавливает ограничитель

CPU повсюду. Они недостаточно используются, но все еще вполне способны питать многие задачи ИИ, которые нас волнуют.

Преимущества децентрализованных сетей

Вместо того чтобы просто бросаться на GPU, давайте зададимся более разумным вопросом: Используем ли мы вообще имеющиеся вычислительные ресурсы?

С появлением децентрализованных вычислительных платформ, которые подключают простаивающие CPU к экономике ИИ, у нас есть огромная возможность переосмыслить масштабирование ИИ-инфраструктуры. Настоящим ограничением является не только доступность GPU, но и изменение мышления. Мы настолько привыкли гоняться за высококлассным оборудованием, что упускаем из виду неиспользованный потенциал, простаивающий в сети.

Итоги

Пора перестать относиться к CPU как к гражданам второго сорта в мире ИИ. Да, GPU критически важны. Никто этого не отрицает. CPU повсюду. Они недостаточно используются, но все еще вполне способны поддерживать многие задачи ИИ, которые нас волнуют.

Вместо того чтобы просто бросать деньги на нехватку GPU, давайте зададимся более разумным вопросом: Используем ли мы вообще имеющиеся вычислительные ресурсы?

С появлением децентрализованных вычислительных платформ, которые подключают простаивающие CPU к экономике ИИ, у нас есть огромная возможность переосмыслить масштабирование ИИ-инфраструктуры. Настоящим ограничением является не только доступность GPU, но и изменение мышления. Мы настолько привыкли гоняться за высококлассным оборудованием, что упускаем из виду неиспользованный потенциал, простаивающий в сети.

Мнение автора: Naman Kabra, соучредитель и генеральный директор NodeOps Network.

Эта статья предназначена для общих информационных целей и не должна рассматриваться как юридическая или инвестиционная консультация.