Искусственный интеллект (ИИ) последовательно определялся масштабом – до сих пор: более крупные модели, более быстрое машинное обучение, расширяющиеся центры обработки данных. Предполагалось, основываясь на традиционных технологических циклах, что масштабирование будет продолжать улучшать производительность, а со временем снижать затраты и расширять доступ.
Это предположение сейчас рушится. ИИ масштабируется не так, как другое программное обеспечение. Вместо этого он капиталоемок, ограничен физическими пределами и сталкивается с убывающей отдачей гораздо раньше, чем ожидалось.
Цифры говорят сами за себя. Спрос на электроэнергию со стороны глобальных центров обработки данных более чем удвоится к 2030 году – уровни, которые когда-то ассоциировались с целыми промышленными секторами. Только в США прогнозируется, что спрос на электроэнергию центрами обработки данных вырастет более чем на 100 процентов к концу десятилетия. Это расширение требует триллионы долларов новых инвестиций наряду с существенным увеличением пропускной способности электросетей.
Между тем, эти системы внедряются в законодательство, финансы, соответствие нормативным требованиям, трейдинг и управление рисками, где ошибки быстро распространяются, но достоверность не подлежит обсуждению. В июне 2025 года Высокий суд Великобритании предупредил юристов немедленно прекратить подачу документов, ссылающихся на сфабрикованную прецедентную практику, сгенерированную инструментами ИИ.
Дебаты о масштабировании ИИ
Когда ИИ-система может изобрести прецедент, которого никогда не существовало, и профессионал полагается на него, дебаты о масштабировании начинают превращаться в серьезные вопросы общественного доверия. Масштабирование усиливает слабости ИИ, а не решает их.
Часть проблемы заключается в том, что именно улучшает масштабирование. Большие языковые модели (LLM) развиваются, чтобы стать все более беглыми, поскольку язык основан на закономерностях. Чем больше примеров того, как пишут, суммируют и переводят реальные люди, видит LLM, тем быстрее он улучшается.
Более глубокий интеллект – рассуждение – не масштабируется таким же образом. Следующее поколение ИИ должно понимать причинно-следственные связи и знать, когда ответ является неопределенным или неполным. Ему потребуется объяснить, почему вывод следует из предпосылок, а не просто выдать уверенный ответ. Это не всегда надежно улучшается с добавлением большего количества параметров или вычислительных мощностей.
Следствием является растущее бремя проверки. Людям приходится тратить больше времени на проверку машинного вывода, а не на его использование, и это бремя увеличивается по мере более широкого развертывания систем.
Стоимость обучения моделей ИИ
Обучение передовых моделей ИИ уже стало чрезвычайно дорогим, достоверные данные показывают, что затраты растут из года в год, и прогнозируется, что отдельные циклы обучения вскоре могут превысить 1 миллиард долларов. Обучение – это лишь входной билет.
Бо́льшие затраты связаны с выводом: непрерывным запуском этих моделей в масштабе, с реальной задержкой, временем безотказной работы и требованиями к проверке. Каждый запрос потребляет энергию. Каждое развертывание требует инфраструктуры. По мере роста использования потребление энергии и затраты растут в геометрической прогрессии.
С точки зрения рынков и крипто, ИИ-системы все чаще используются для мониторинга активности в блокчейне, анализа настроений, генерации кодов для смарт-контрактов, выявления подозрительных транзакций и автоматизации принятия решений.
В такой быстро развивающейся и конкурентной среде беглый, но ненадежный ИИ быстро распространяет ошибки; ложные сигналы перемещают капитал, а сфабрикованные объяснения и галлюцинации подрывают доверие. Одним из примеров является создание ложных срабатываний в автоматизированном обнаружении отмывания денег (AML), распространенная проблема, которая тратит время и ресурсы на расследование невиновных торговых операций.
Пора улучшить рассуждения
Масштабирование ИИ-систем без улучшения их способности к рассуждениям усиливает риск, особенно в тех случаях, когда автоматизация и достоверность жизненно важны и тесно связаны.
Обеспечение экономической жизнеспособности и общественной ценности ИИ означает, что мы не можем полагаться только на масштабирование. Доминирующий подход сегодня приоритезирует увеличение вычислительных мощностей и данных, оставляя базовый механизм рассуждений в значительной степени неизменным, что является стратегией, которая становится все дороже без пропорционального повышения безопасности.
Альтернатива – архитектурная. Системы должны делать больше, чем просто предсказывать следующее слово. Им нужно представлять взаимосвязи, применять правила, проверять свои собственные шаги и делать возможным отслеживание того, как были достигнуты выводы.
Здесь вступают в игру когнитивные или нейросимволические системы. Организуя знания в взаимосвязанные концепции, а не полагаясь исключительно на грубое сопоставление с образцом, эти системы могут обеспечить высокую способность к рассуждению при гораздо меньшем энергопотреблении и потребностях в инфраструктуре.
Новые "когнитивные" платформы ИИ демонстрируют, как структурированные системы рассуждений могут работать на локальных серверах или периферийных устройствах, позволяя пользователям контролировать свои собственные знания, а не передавать познавательные способности на удаленную инфраструктуру.
Когнитивные ИИ-системы сложнее в разработке и могут показывать худшие результаты в задачах с открытым концом, но когда рассуждения можно повторно использовать таким образом, а не перевычислять с нуля с помощью огромных вычислительных мощностей, затраты снижаются, а проверка становится выполнимой.
Контроль над тем, как строится ИИ, имеет такое же значение, как и над тем, как он рассуждает. Сообществам нужны системы, которые они могут формировать, проверять и развертывать, не дожидаясь разрешения от централизованных владельцев платформ.
Некоторые платформы исследуют эту границу, используя блокчейн для обеспечения возможности внесения вклада в данные, модели и вычислительные ресурсы как отдельных лиц, так и корпораций. Децентрализация самой разработки ИИ снижает концентрационный риск и согласовывает развертывание с местными потребностями, а не с глобальным спросом.
ИИ находится в переломном моменте. Когда рассуждения можно повторно использовать, а не заново открывать с помощью грубого сопоставления с образцом, системам требуется меньше вычислений на каждое решение и меньше бремени проверки для людей. Это меняет экономику. Экспериментировать становится дешевле, вывод становится более предсказуемым. Масштабирование больше не зависит от экспоненциального увеличения инфраструктуры.
Масштабирование уже сделало все, что могло. И, как ясно показало, оно продемонстрировало предел, который возникает при использовании только размера. Вопрос теперь в том, продолжит ли индустрия расширять масштаб или начнет инвестировать в архитектуры, которые сделают интеллект надежным, прежде чем сделают его больше.
Мнение от: Мохаммеда Марикара, соучредителя Neem Capital.