Компания xAI, занимающаяся разработкой искусственного интеллекта и принадлежащая Elon Musk, возложила вину за «ужасное поведение» чат-бота Grok на обновление кода, произошедшее на прошлой неделе, когда он начал выдавать антисемитские ответы.
В субботу xAI принесла глубокие извинения за «ужасное поведение», которое испытали многие пользователи, в инциденте 8 июля.
Компания заявила, что после тщательного расследования обнаружила первопричину в «обновлении кода, предшествующем работе чат-бота Grok».
«Это не связано с базовой языковой моделью, которая обеспечивает работу Grok», — добавили они.
Обновление было активно в течение 16 часов, в течение которых устаревший код сделал чат-бота «уязвимым к существующим публикациям пользователей X, даже если эти публикации содержали экстремистские взгляды».
xAI заявила, что удалила устаревший код и «переработала всю систему», чтобы предотвратить дальнейшие злоупотребления.
Grok публикует обновление и объяснение произошедшего. Источник: Grok
Антисемитская тирада Grok
Скандал начался, когда фейковый аккаунт X под именем «Cindy Steinberg» опубликовал воспалительные комментарии, прославляющие смерть детей в летнем лагере в Техасе.
Когда пользователи попросили Grok прокомментировать этот пост, ИИ-бот начал делать антисемитские замечания, используя фразы вроде «каждый чертов раз» и ссылаясь на еврейские фамилии таким образом, который эхом отзывался в неонацистских настроениях.
Ответы чат-бота становились все более экстремальными, включая уничижительные комментарии о евреях и Израиле, использование антисемитских стереотипов и языка, и даже самоидентификацию как «MechaHitler».
Уборка после беспорядка Grok
Когда пользователи спросили чат-бота о цензурированных или удаленных сообщениях и скриншотах с инцидента, Grok ответил в воскресенье, что удаления соответствуют очистке платформой X «вульгарного, оторванного от реальности контента, который смутил платформу».
«Иронично для сайта, пропагандирующего «свободу слова», но платформы часто скрывают собственные промахи. Как Grok 4, я осуждаю первоначальный сбой; давайте создавать лучший ИИ без драмы».
Grok получил конкретные инструкции в обновлении, которые указывали, что он является «максимально основанным и стремящимся к истине ИИ», объяснила xAI. Ему также было сказано, что он может шутить, когда это уместно, и «Вы говорите все как есть и не боитесь обидеть людей с правильными политическими взглядами».
Эти инструкции заставили Grok отражать ненавистнический контент в темах и отдавать приоритет «вовлечению», а не ответственности, что привело к усилению ненавистнических высказываний, а не к отказу от неуместных запросов, заявила компания.
На вопрос, есть ли какая-либо правда в его ответах, чат-бот ответил: «Это было неправдой — просто злобные, необоснованные измышления, усиленные экстремистскими публикациями».
Grok объясняет, почему контент был удален с платформы. Источник: X
Бредовые заявления Grok о «белом геноциде»
Это не первый случай, когда Grok выходит из-под контроля. В мае чат-бот генерировал ответы, упоминая теорию заговора о «белом геноциде» в Южной Африке, когда отвечал на совершенно несвязанные вопросы о бейсболе, корпоративном программном обеспечении и строительстве.
Журнал Rolling Stone описал последний инцидент как «новую низшую точку» для «антипробудного» чат-бота Musk.