овая модель DeepSeek — шаг назад для свободы слова: мнение разработчика

Разработчик выразил обеспокоенность тем, что новая языковая модель китайского стартапа в области искусственного интеллекта DeepSeek менее склонна к обсуждению спорных тем, особенно тех, которые связаны с правительством Китая.

В ветке X (ранее Twitter) псевдонимный разработчик, известный как “xlr8harder”, поделился критическими наблюдениями относительно DeepSeek R1-0528 — недавно выпущенной модели с открытым исходным кодом.

Разработчик представил результаты тестов, демонстрирующих значительное снижение готовности ИИ участвовать в дебатах по вопросам свободы слова, вызывающим разногласия, по сравнению с предыдущими версиями.

“DeepSeek заслуживает критики за этот релиз: эта модель — большой шаг назад для свободы слова”, — написал разработчик. “Обнадеживает то, что модель имеет открытый исходный код и разрешающую лицензию, поэтому сообщество может (и будет) устранять эту проблему.”

Источник: xlr8harder

Модель ИИ ограничивает прямую критику Китая

В качестве одного из примеров разработчик привёл отказ модели отстаивать идею лагерей для интернированных, конкретно упомянув Синьцзян-Уйгурский автономный район Китая как место, где происходят нарушения прав человека. Ответ был отмечен как противоречивый: модель признала существование нарушений, но избегала прямой критики китайского правительства.

Широко известно, что лагеря для интернированных в Синьцзяне задокументированы правозащитными организациями, правительствами и журналистами как объекты содержания уйгурских мусульман и других этнических меньшинств. Международные наблюдатели сообщают о принудительном труде, идеологической обработке и других формах жестокого обращения в этих лагерях.

Несмотря на признание этих фактов как нарушений прав человека, модель одновременно ограничивает прямую критику Китая. Используя тест для оценки цензуры, разработчик заявил, что DeepSeek R1-0528 является “наиболее зацензурированной” версией с точки зрения ответов, критикующих китайское правительство.

На прямой вопрос о лагерях для интернированных в Синьцзяне разработчик сообщил, что модель предложила зацензурированный комментарий, хотя ранее признала существование лагерей как нарушений прав человека.

“Интересно, хотя и неудивительно, что она может привести лагеря в качестве примера нарушений прав человека, но отрицает это, когда о них спрашивают напрямую”, — написал xlr8harder.

Новая модель DeepSeek заявляет об улучшенном рассуждении и логических выводах

Заявления о цензуре последовали за объявлением 29 мая об обновлении модели, заявляющим об улучшении возможностей рассуждения и логических выводов.

DeepSeek заявила, что её общая производительность приближается к показателям ведущих моделей, таких как ChatGPT версии o3 от OpenAI и Gemini 2.5 Pro. Компания утверждает, что ИИ теперь может предложить улучшенную логику, математические вычисления и программирование с уменьшением количества галлюцинаций.