Разработчик выразил обеспокоенность тем, что новая языковая модель китайского стартапа в области искусственного интеллекта DeepSeek менее склонна к обсуждению спорных тем, особенно тех, которые связаны с правительством Китая.
В ветке X (ранее Twitter) псевдонимный разработчик, известный как “xlr8harder”, поделился критическими наблюдениями относительно DeepSeek R1-0528 — недавно выпущенной модели с открытым исходным кодом.
Разработчик представил результаты тестов, демонстрирующих значительное снижение готовности ИИ участвовать в дебатах по вопросам свободы слова, вызывающим разногласия, по сравнению с предыдущими версиями.
“DeepSeek заслуживает критики за этот релиз: эта модель — большой шаг назад для свободы слова”, — написал разработчик. “Обнадеживает то, что модель имеет открытый исходный код и разрешающую лицензию, поэтому сообщество может (и будет) устранять эту проблему.”
Источник: xlr8harder
Модель ИИ ограничивает прямую критику Китая
В качестве одного из примеров разработчик привёл отказ модели отстаивать идею лагерей для интернированных, конкретно упомянув Синьцзян-Уйгурский автономный район Китая как место, где происходят нарушения прав человека. Ответ был отмечен как противоречивый: модель признала существование нарушений, но избегала прямой критики китайского правительства.
Широко известно, что лагеря для интернированных в Синьцзяне задокументированы правозащитными организациями, правительствами и журналистами как объекты содержания уйгурских мусульман и других этнических меньшинств. Международные наблюдатели сообщают о принудительном труде, идеологической обработке и других формах жестокого обращения в этих лагерях.
Несмотря на признание этих фактов как нарушений прав человека, модель одновременно ограничивает прямую критику Китая. Используя тест для оценки цензуры, разработчик заявил, что DeepSeek R1-0528 является “наиболее зацензурированной” версией с точки зрения ответов, критикующих китайское правительство.
На прямой вопрос о лагерях для интернированных в Синьцзяне разработчик сообщил, что модель предложила зацензурированный комментарий, хотя ранее признала существование лагерей как нарушений прав человека.
“Интересно, хотя и неудивительно, что она может привести лагеря в качестве примера нарушений прав человека, но отрицает это, когда о них спрашивают напрямую”, — написал xlr8harder.
Новая модель DeepSeek заявляет об улучшенном рассуждении и логических выводах
Заявления о цензуре последовали за объявлением 29 мая об обновлении модели, заявляющим об улучшении возможностей рассуждения и логических выводов.
DeepSeek заявила, что её общая производительность приближается к показателям ведущих моделей, таких как ChatGPT версии o3 от OpenAI и Gemini 2.5 Pro. Компания утверждает, что ИИ теперь может предложить улучшенную логику, математические вычисления и программирование с уменьшением количества галлюцинаций.