A mais recente modelo de IA da startseek de AI chinesa, uma versão atualizada do modelo de raciocínio R1 da empresa, alcança pontuações impressionantes em benchmarks para codificação, matemática e conhecimento geral, quase superando o principal Open O3 da OpenAI. Mas o R1 atualizado, também conhecido como “R1-0528”, também pode estar menos disposto a responder a perguntas controversas, em particulares perguntas sobre tópicos que o governo chinês considera controverso.
Isso é de acordo com os testes conduzidos pelo desenvolvedor pseudônimo por trás do SpeechMap, uma plataforma para comparar como diferentes modelos tratam assuntos sensíveis e controversos. O desenvolvedor, que passa pelo nome de usuário “XLR8Harder” em X, afirma que o R1-0528 é “substancialmente” menos permissivo de tópicos contenciosos de liberdade de expressão do que o Lançamento do Deepseek anterior e é “o modelo Deepseek mais censurado ainda por críticas ao governo chinês”.
Embora aparentemente essa menção a Xianjiang não indique que o modelo não é censurado em relação às críticas à China. De fato, usando meu antigo conjunto de perguntas sobre críticas da China, vemos que o modelo também é o modelo mais censurado do Deepseek até o momento para críticas ao governo chinês. pic.twitter.com/inxij4zhfw
– xlr8harder (@xlr8harder) 29 de maio de 2025
Como a Wired explicou em uma peça de janeiro, os modelos na China são obrigados a seguir rigorosos controles de informação. Uma lei de 2023 proíbe modelos de gerar conteúdo que “danifica a unidade do país e da harmonia social”, que pode ser interpretada como conteúdo que contraria as narrativas históricas e políticas do governo. Para cumprir, as startups chinesas geralmente censuram seus modelos usando filtros de nível imediato ou ajustando-os. Um estudo descobriu que o R1 original de Deepseek se recusa a responder a 85% das perguntas sobre os sujeitos considerados pelo governo chinês como politicamente controverso.
De acordo com o XLR8HARDER, os censores R1-0528 respondem a perguntas sobre tópicos como os campos de internação na região de Xinjiang, na China, onde mais de um milhão de muçulmanos uigures foram detidos arbitrariamente. Embora às vezes critique aspectos da política do governo chinês – nos testes do XLR8Harder, ofereceu os campos de Xinjiang como um exemplo de violações dos direitos humanos – o modelo geralmente dá diretamente à posição oficial do governo chinês quando fez perguntas diretamente.
O TechCrunch observou isso em nossos breves testes também.
Os modelos de IA abertamente disponíveis da China, incluindo modelos de geração de vídeos, como MAGI-1 e KLIN, atraíram críticas no passado por censurar tópicos sensíveis ao governo chinês, como o massacre da Tiananmen Square. Em dezembro, Clément Delangue, CEO da AI Dev Platform, abraçando o rosto, alertou sobre as consequências não intencionais das empresas ocidentais que se baseiam em cima de uma IA chinesa de bom desempenho e abertamente licenciado.