Секретный эксперимент Цюрихского университета по манипулированию мнениями на Reddit

Исследователи из Цюрихского университета обвиняются в проведении несанкционированного четырехмесячного эксперимента на доске Reddit с использованием сгенерированных искусственным интеллектом комментариев, чтобы проверить, может ли ИИ изменить мнение людей.

В рамках эксперимента, аккаунты, управляемые ИИ, имитировали различные личности, включая жертву изнасилования, человека, выступающего против определенных социальных движений, и консультанта по травмам, специализирующегося на насилии, сообщили модераторы сабреддита r/changemyview в посте от 26 апреля.

«Наш саб — явно человеческое пространство, которое отвергает нераскрытый ИИ как основную ценность», — заявили модераторы. «Люди приходят сюда, чтобы обсуждать свои взгляды с людьми, а не с ИИ, и не для того, чтобы над ними ставили эксперименты».

Исследователи использовали ИИ для генерации ответов, но пытались персонализировать их, основываясь на информации из предыдущей истории сообщений авторов на Reddit, такой как политическая ориентация, пол, возраст и этническая принадлежность, согласно черновику статьи.

Модераторы сабреддита r/changemyview утверждают, что исследователи из Цюрихского университета провели несанкционированный эксперимент в их сообществе. Источник: Reddit

В течение четырехмесячного эксперимента, фейковые аккаунты ИИ, созданные Цюрихским университетом, разместили 1783 комментария и получили 137 дельт — отметку, показывающую, что другой пользователь Reddit признал, что аккаунт убедил его изменить свое мнение по определенному вопросу.

Исследователи заявили в посте на сабреддите, что все комментарии были вручную проверены перед публикацией, чтобы убедиться, что они соответствуют правилам сообщества и «минимизировать потенциальный вред».

Social Media Команда университета утверждала, что потенциальные выгоды от этого исследования значительно перевешивают его риски. Источник: Reddit

Команда университета утверждала, что «потенциальные выгоды от этого исследования значительно перевешивают его риски», поскольку они обнаружили, что большие языковые модели, используемые в эксперименте, могут быть очень убедительными, превосходя все «ранее известные показатели человеческой убедительности».

«Наше контролируемое, низкорискованное исследование дало ценную информацию о возможностях убеждения в реальном мире LLM — возможностях, которые уже легко доступны любому и которые злоумышленники могут использовать в гораздо более опасных целях», — заявили исследователи.

В то же время исследователи отметили, что эксперимент показывает, что различать людей и ИИ по-прежнему остается сложной задачей, поскольку ни один из пользователей сабреддита не обнаружил ИИ-ботов в течение всего эксперимента.

Сабреддит r/changemyview насчитывает 3,8 миллиона участников и входит в 1% самых больших сабреддитов.

Reddit рассматривает юридические варианты

Модераторы сабреддита заявили, что не знали об эксперименте, и попросили университет принести извинения и заблокировать публикацию исследования.

Reddit также может рассмотреть вопрос о юридических действиях, поскольку главный юрисконсульт платформы, Бен Ли, заявил, что компания рассматривает возможность подачи иска.

Этический комитет университета заявил, что провел расследование инцидента и обещал лучше координировать действия с участниками тестирования в будущем. Главному исследователю проекта также было вынесено официальное предупреждение.

«Этот проект дает важные сведения, и риски минимальны. Это означает, что подавление публикации непропорционально важности знаний, которые дает исследование», — заявил этический комитет.

Цюрихский университет не сразу отреагировал на запрос о комментарии. Cointelegraph также не сразу получил ответа на вопросы, отправленные на адрес электронной почты, связанный с экспериментом.