Интернет эпохи искусственного интеллекта: сможет ли блокчейн подтвердить реальность?

Как часто вы сталкивались с изображением в сети и задавались вопросом: «Реальное или сгенерировано ИИ»? Чувствовали ли вы себя в ловушке реальности, где контент, созданный ИИ, и контент, созданный человеком, сливаются воедино? Нужно ли нам по-прежнему различать их?

Искусственный интеллект открыл мир творческих возможностей, но также принес новые вызовы, изменив наше восприятие контента в сети. От наводнения социальных сетей изображениями, музыкой и видео, сгенерированными ИИ, до дипфейков и ботов, обманывающих пользователей, ИИ теперь охватывает огромную часть интернета.

Согласно исследованию Graphite, объем контента, созданного ИИ, превзошел контент, созданный человеком, в конце 2024 года, главным образом благодаря запуску ChatGPT в 2022 году. Другое исследование показывает, что по состоянию на апрель 2025 года более 74,2% страниц в его выборке содержали контент, сгенерированный ИИ.

По мере того, как контент, сгенерированный ИИ, становится все более сложным и практически неотличимым от работы, созданной человеком, человечество сталкивается с насущным вопросом: насколько хорошо пользователи смогут в 2026 году определить, что является реальным?

Наступает усталость от контента ИИ: Растет спрос на контент, созданный человеком

После нескольких лет восторга от "волшебства" ИИ онлайн-пользователи все чаще испытывают усталость от контента ИИ — коллективное истощение в ответ на неустанные темпы инноваций в области ИИ.

Согласно опросу Pew Research Center, в опросе весны 2025 года медианное значение опасений взрослых во всем мире по поводу увеличения использования ИИ было выше, чем восторга (34%), в то время как 42% были в равной степени обеспокоены и взволнованы.

"Усталость от контента ИИ упоминалась во многих исследованиях, поскольку новизна контента, сгенерированного ИИ, медленно уходит, и в своей нынешней форме он часто кажется предсказуемым и доступным в изобилии", — рассказал Cointelegraph Адриан Отт, главный директор по ИИ в EY Switzerland.

Источник: Pew Research

"В некотором смысле, контент, созданный ИИ, можно сравнить с переработанной пищей", — сказал он, проводя параллели между тем, как развивались оба этих явления.

"Когда это стало возможным, он наводнил рынок. Но со временем люди начали возвращаться к местной, качественной пище, зная ее происхождение", — сказал Отт, добавив:

"Возможно, ситуация пойдет по аналогичной траектории и с контентом. Можно утверждать, что люди любят знать, кто стоит за мыслями, которые они читают, и картину оценивают не только по ее качеству, но и по истории, стоящей за художником."

Отт предположил, что такие лейблы, как "созданный человеком", могут появиться в качестве сигналов доверия в онлайн-контенте, аналогично "органическому" в пище.

Управление контентом ИИ: Сертификация реального контента среди рабочих подходов

Хотя многие могут утверждать, что большинство людей могут распознать текст или изображения, созданные ИИ, не прилагая усилий, вопрос обнаружения контента, созданного ИИ, более сложен.

В исследовании Pew Research, проведенном в сентябре, было обнаружено, что по крайней мере 76% американцев считают важным уметь распознавать контент, созданный ИИ, и лишь 47% уверены, что могут точно его обнаружить.

"В то время как некоторые люди попадаются на фальшивых фотографиях, видео или новостях, другие могут отказаться верить во что бы то ни было или удобно отклонять реальные кадры как "сгенерированные ИИ", когда они не соответствуют их взглядам", — сказал Отт из EY, подчеркивая проблемы управления контентом ИИ в сети.

Источник: Pew Research

По словам Отта, мировые регуляторы, похоже, движутся в направлении маркировки контента ИИ, но "всегда найдутся способы обойти это". Вместо этого он предложил обратный подход, когда реальный контент сертифицируется в момент его захвата, чтобы можно было проследить подлинность до фактического события, а не пытаться обнаружить подделки после факта.

Роль блокчейна в определении "доказательства происхождения"

"Поскольку синтетические медиа становится все труднее отличить от реальных кадров, полагаться на аутентификацию после факта больше неэффективно", — сказал Джейсон Кроуфорт, основатель и генеральный директор Swear, стартапа, разрабатывающего программное обеспечение для аутентификации видео.

"Защита придет от систем, которые внедряют доверие в контент с самого начала", — подчеркнул Кроуфорт, подчеркивая ключевую концепцию Swear, которая обеспечивает надежность цифровых медиа с момента их создания с использованием технологии блокчейн.

Программное обеспечение для аутентификации видео от Swear было названо лучшим изобретением 2025 года журналом Time в категории "Криптография и блокчейн". Источник: Time magazine

Программное обеспечение для аутентификации от Swear использует подход блокчейн-цифрового отпечатка, где каждый фрагмент контента связан с блокчейн-реестром для обеспечения доказательства происхождения — проверяемой "цифровой ДНК", которую нельзя изменить без обнаружения.

"Любая модификация, даже самая незначительная, становится обнаруживаемой путем сравнения контента с его блокчейн-верифицированным оригиналом на платформе Swear", — добавил Кроуфорт:

"Без встроенной подлинности все медиа, прошлое и настоящее, подвергается риску сомнений [...] Swear не спрашивает: «Это подделка?», он доказывает: «Это реально». Этот сдвиг делает наше решение проактивным и устойчивым к будущему в борьбе за защиту правды."

На данный момент технология Swear используется среди цифровых создателей и корпоративных партнеров, в основном ориентируясь на визуальные и аудиомедиа с устройств записи видео, включая боди-камеры и дроны.

"Хотя интеграция с социальными сетями является долгосрочным видением, в настоящее время мы сосредоточены на индустрии безопасности и наблюдения, где целостность видео имеет решающее значение", — сказал Кроуфорт.

Прогноз на 2026 год: Ответственность платформ и переломные моменты

По мере вступления в 2026 год онлайн-пользователи все больше беспокоятся о растущем объеме контента, сгенерированного ИИ, и их способности различать синтетические и созданные человеком медиа.

В то время как эксперты в области ИИ подчеркивают важность четкой маркировки "реального" контента в отличие от контента, созданного ИИ, остается неясным, насколько быстро онлайн-платформы признают необходимость уделять приоритетное внимание надежному контенту, созданному человеком, поскольку ИИ продолжает наводнять интернет.

Internet, Media, Authentication, Social Media, New Year's SpecialИздательство словарей Merriam-Webster назвало slop словом 2025 года в связи с обеспокоенностью по поводу контента ИИ. Источник: Merriam- Webster

"В конечном счете, ответственность за предоставление пользователям инструментов для фильтрации контента ИИ и отображения высококачественного материала лежит на поставщиках платформы. Если они этого не сделают, люди уйдут", — сказал Отт. "В настоящее время людям мало что можно сделать самостоятельно, чтобы удалить контент, сгенерированный ИИ, из своих каналов — этот контроль в основном лежит на платформах."

По мере роста спроса на инструменты, определяющие медиа, созданные человеком, важно признать, что основная проблема часто заключается не в самом контенте ИИ, а в намерениях, стоящих за его созданием. Дипфейки и дезинформация — это не совсем новые явления, хотя ИИ значительно увеличил их масштаб и скорость.

Поскольку в 2025 году лишь небольшое количество стартапов занимаются выявлением подлинного контента, проблема еще не обострилась до такой степени, чтобы платформы, правительства или пользователи предприняли срочные, скоординированные действия.

По словам Кроуфорта из Swear, человечество еще не достигло переломного момента, когда манипулирование медиа вызывает заметный, неоспоримый вред:

"Будь то в юридических делах, расследованиях, корпоративном управлении, журналистике или общественной безопасности. Ждать этого момента было бы ошибкой; основы для подлинности следует заложить сейчас."