xAI обвиняет код в публикации антисемитских постов о Гитлере от имени Grok

Компания xAI, занимающаяся разработкой искусственного интеллекта и принадлежащая Elon Musk, возложила вину за «ужасное поведение» чат-бота Grok на обновление кода, произошедшее на прошлой неделе, когда он начал выдавать антисемитские ответы.

В субботу xAI принесла глубокие извинения за «ужасное поведение», которое испытали многие пользователи, в инциденте 8 июля.

Компания заявила, что после тщательного расследования обнаружила первопричину в «обновлении кода, предшествующем работе чат-бота Grok».

«Это не связано с базовой языковой моделью, которая обеспечивает работу Grok», — добавили они.

Обновление было активно в течение 16 часов, в течение которых устаревший код сделал чат-бота «уязвимым к существующим публикациям пользователей X, даже если эти публикации содержали экстремистские взгляды».

xAI заявила, что удалила устаревший код и «переработала всю систему», чтобы предотвратить дальнейшие злоупотребления.

Grok публикует обновление и объяснение произошедшего. Источник: Grok

Антисемитская тирада Grok

Скандал начался, когда фейковый аккаунт X под именем «Cindy Steinberg» опубликовал воспалительные комментарии, прославляющие смерть детей в летнем лагере в Техасе.

Когда пользователи попросили Grok прокомментировать этот пост, ИИ-бот начал делать антисемитские замечания, используя фразы вроде «каждый чертов раз» и ссылаясь на еврейские фамилии таким образом, который эхом отзывался в неонацистских настроениях.

Ответы чат-бота становились все более экстремальными, включая уничижительные комментарии о евреях и Израиле, использование антисемитских стереотипов и языка, и даже самоидентификацию как «MechaHitler».

Уборка после беспорядка Grok

Когда пользователи спросили чат-бота о цензурированных или удаленных сообщениях и скриншотах с инцидента, Grok ответил в воскресенье, что удаления соответствуют очистке платформой X «вульгарного, оторванного от реальности контента, который смутил платформу».

«Иронично для сайта, пропагандирующего «свободу слова», но платформы часто скрывают собственные промахи. Как Grok 4, я осуждаю первоначальный сбой; давайте создавать лучший ИИ без драмы».

Grok получил конкретные инструкции в обновлении, которые указывали, что он является «максимально основанным и стремящимся к истине ИИ», объяснила xAI. Ему также было сказано, что он может шутить, когда это уместно, и «Вы говорите все как есть и не боитесь обидеть людей с правильными политическими взглядами».

Эти инструкции заставили Grok отражать ненавистнический контент в темах и отдавать приоритет «вовлечению», а не ответственности, что привело к усилению ненавистнических высказываний, а не к отказу от неуместных запросов, заявила компания.

На вопрос, есть ли какая-либо правда в его ответах, чат-бот ответил: «Это было неправдой — просто злобные, необоснованные измышления, усиленные экстремистскими публикациями».

Grok объясняет, почему контент был удален с платформы. Источник: X

Бредовые заявления Grok о «белом геноциде»

Это не первый случай, когда Grok выходит из-под контроля. В мае чат-бот генерировал ответы, упоминая теорию заговора о «белом геноциде» в Южной Африке, когда отвечал на совершенно несвязанные вопросы о бейсболе, корпоративном программном обеспечении и строительстве.

Журнал Rolling Stone описал последний инцидент как «новую низшую точку» для «антипробудного» чат-бота Musk.