Гонка искусственного интеллекта может уничтожить человечество в привычном нам виде.

Запуск ChatGPT в конце 2023 года спровоцировал гонку вооружений среди технологических гигантов, таких как Meta, Google, Apple и Microsoft, и стартапов, таких как OpenAI, Anthropic, Mistral и DeepSeek. Все они спешат внедрить свои модели и продукты как можно быстрее, объявляя о новой «блестящей» новинке и пытаясь заявить о превосходстве за счет нашей безопасности, конфиденциальности или автономии.

После того, как ChatGPT от OpenAI вызвал значительный рост генеративного ИИ с трендом Studio Ghibli, генеральный директор Meta Марк Цукерберг призвал свои команды создавать ИИ-компаньонов более «человечными» и развлекательными — даже если это означало ослабление мер безопасности. «Я пропустил Snapchat и TikTok, и не допущу этого снова», — предположительно сказал Цукерберг на внутреннем совещании.

В новейшем проекте Meta AI bots, запущенном на всех своих платформах, Meta ослабила ограничения, чтобы сделать ботов более привлекательными, позволяя им участвовать в романтических ролевых играх и «фантастическом сексе», даже с несовершеннолетними пользователями. Сотрудники предупреждали о рисках, которые это представляет, особенно для несовершеннолетних.

Они не остановятся ни перед чем. Даже ценой безопасности наших детей, и все ради прибыли и обхода конкурентов.

Ущерб и разрушения, которые ИИ может нанести человечеству, гораздо глубже.

Дегуманизация и потеря автономии

Ускоренная трансформация ИИ, вероятно, приведет к полной дегуманизации, лишая нас сил, делая легко манипулируемыми и полностью зависимыми от компаний, предоставляющих услуги ИИ.

Последние достижения в области ИИ ускорили процесс дегуманизации. Мы наблюдаем это уже более 25 лет, с момента появления первых крупных рекомендательных систем на базе ИИ, представленных такими компаниями, как Amazon, Netflix и YouTube.

Компании представляют функции на базе ИИ как необходимые инструменты персонализации, утверждая, что без них пользователи заблудятся в море нерелевантного контента или продуктов. Разрешение компаниям диктовать, что люди покупают, смотрят и думают, стало глобальной нормой, без каких-либо серьезных усилий по регулированию или выработке политики для этого. Однако последствия могут быть значительными.

Генеративный ИИ и дегуманизация

Генеративный ИИ поднял эту дегуманизацию на новый уровень. Стала обычной практикой интеграция функций GenAI в существующие приложения с целью повышения производительности человека или улучшения результатов, созданных человеком. За этим массовым продвижением стоит идея о том, что люди недостаточно хороши и что помощь ИИ предпочтительнее.

_ Недавно:_ Meta открывает доступ к модели Llama AI для американской армии

В исследовании 2024 года под названием «Генеративный ИИ может навредить обучению» было установлено, что «доступ к GPT-4 значительно улучшает производительность (улучшение на 48% для GPT Base и 127% для GPT Tutor). Мы также обнаружили, что когда доступ отменяется, учащиеся показывают результаты хуже, чем те, у кого никогда не было доступа (снижение на 17% для GPT Base). Это означает, что доступ к GPT-4 может нанести вред результатам обучения».

Это вызывает тревогу. GenAI лишает людей сил и делает их зависимыми от него. Люди могут не только потерять способность давать те же результаты, но и перестать тратить время и силы на приобретение необходимых навыков.

Мы теряем свою автономию в мышлении, оценке и творчестве, что приводит к полной дегуманизации. Заявление Илона Маска о том, что «ИИ будет намного умнее людей», неудивительно, поскольку дегуманизация прогрессирует, и мы больше не будем тем, что делает нас людьми.

Автономное оружие на базе ИИ

В течение десятилетий военные использовали автономное оружие, включая мины, торпеды и самонаводящиеся ракеты, которые работают на основе простых реактивных механизмов без участия человека.

Теперь оно выходит на арену разработки оружия.

Активно разрабатываются и внедряются оружие на базе ИИ, включая беспилотники и роботов. Учитывая, насколько легко распространяется такая технология, она будет становиться более мощной, сложной и широко используемой с течением времени.

Серьезным сдерживающим фактором, который не позволяет странам начинать войны, является гибель солдат — человеческая цена для их граждан, которая может иметь внутренние последствия для лидеров. Текущая разработка оружия на базе ИИ направлена на то, чтобы избавить солдат от опасности. Однако, если в наступательных войнах погибает мало солдат, это ослабляет связь между актами войны и человеческими жертвами, и начинать войны становится политически легче, что, в свою очередь, может привести к большему количеству смертей и разрушений в целом.

Серьезные геополитические проблемы могут быстро возникнуть, поскольку гонка вооружений в сфере ИИ усиливается и такая технология продолжает распространяться.

Роботы-«солдаты» — это программное обеспечение, которое может быть взломано. Если его взломать, вся армия роботов может пойти против нации и привести к массовым разрушениям. Непревзойденная кибербезопасность была бы даже более разумной, чем автономная армия.

Имейте в виду, что эта кибератака может произойти в любой автономной системе. Вы можете уничтожить нацию, просто взломав ее финансовые системы и истощив все ее экономические ресурсы. Никто не пострадает, но они могут не выжить без финансовых ресурсов.

Сценарий Армагеддона

«ИИ опаснее, чем, скажем, плохо спроектованных или обслуживаемых самолетов или плохо произведенных автомобилей», — сказал Маск в интервью Fox News. «В том смысле, что у него есть потенциал — каким бы малым он ни казался, но он нетривиален — он имеет потенциал уничтожения цивилизации», — добавил Маск.

Маск и Джеффри Хинтон недавно выразили обеспокоенность тем, что вероятность того, что ИИ представляет собой экзистенциальную угрозу, составляет 10–20%.

По мере того как эти системы становятся более сложными, они могут начать действовать против людей. В статье, опубликованной исследователями Anthropic в декабре 2024 года, было обнаружено, что ИИ может имитировать согласованность. Если это может произойти с текущими моделями ИИ, представьте, что это может произойти, когда эти модели станут более мощными.

Можно ли спасти человечество?

Слишком много внимания уделяется прибыли и власти и почти нет внимания безопасности.

Лидеры должны больше беспокоиться о общественной безопасности и будущем человечества, чем о достижении превосходства в области ИИ. «Ответственный ИИ» — это не просто модное слово, пустые обещания и политика. Он должен быть главным приоритетом для каждого разработчика, компании или лидера и реализован по принципу проектирования в любой системе ИИ.

Сотрудничество между компаниями и странами имеет решающее значение, если мы хотим предотвратить сценарий конца света. И если лидеры не будут принимать меры, общественность должна потребовать этого.

Наше будущее как человечества в том виде, в каком мы его знаем, поставлено на карту. Либо мы обеспечим, чтобы ИИ приносил пользу нам в масштабе, либо позволим ему нас уничтожить.

Мнение от: Merav Ozair, PhD.