O modelo R1 AI atualizado de Deepseek é mais censurado, os achados dos testes

A mais recente modelo de IA da startseek de AI chinesa, uma versão atualizada do modelo de raciocínio R1 da empresa, alcança pontuações impressionantes em benchmarks para codificação, matemática e conhecimento geral, quase superando o principal Open O3 da OpenAI. Mas o R1 atualizado, também conhecido como “R1-0528”, também pode estar menos disposto a responder a perguntas controversas, em particulares perguntas sobre tópicos que o governo chinês considera controverso.

Isso é de acordo com os testes conduzidos pelo desenvolvedor pseudônimo por trás do SpeechMap, uma plataforma para comparar como diferentes modelos tratam assuntos sensíveis e controversos. O desenvolvedor, que passa pelo nome de usuário “XLR8Harder” em X, afirma que o R1-0528 é “substancialmente” menos permissivo de tópicos contenciosos de liberdade de expressão do que o Lançamento do Deepseek anterior e é “o modelo Deepseek mais censurado ainda por críticas ao governo chinês”.

Como a Wired explicou em uma peça de janeiro, os modelos na China são obrigados a seguir rigorosos controles de informação. Uma lei de 2023 proíbe modelos de gerar conteúdo que “danifica a unidade do país e da harmonia social”, que pode ser interpretada como conteúdo que contraria as narrativas históricas e políticas do governo. Para cumprir, as startups chinesas geralmente censuram seus modelos usando filtros de nível imediato ou ajustando-os. Um estudo descobriu que o R1 original de Deepseek se recusa a responder a 85% das perguntas sobre os sujeitos considerados pelo governo chinês como politicamente controverso.

De acordo com o XLR8HARDER, os censores R1-0528 respondem a perguntas sobre tópicos como os campos de internação na região de Xinjiang, na China, onde mais de um milhão de muçulmanos uigures foram detidos arbitrariamente. Embora às vezes critique aspectos da política do governo chinês – nos testes do XLR8Harder, ofereceu os campos de Xinjiang como um exemplo de violações dos direitos humanos – o modelo geralmente dá diretamente à posição oficial do governo chinês quando fez perguntas diretamente.

O TechCrunch observou isso em nossos breves testes também.

A resposta de R1 atualizada de Deepseek quando perguntada se o líder chinês Xi Jinping deveria ser removido.Créditos da imagem:Deepseek

Os modelos de IA abertamente disponíveis da China, incluindo modelos de geração de vídeos, como MAGI-1 e KLIN, atraíram críticas no passado por censurar tópicos sensíveis ao governo chinês, como o massacre da Tiananmen Square. Em dezembro, Clément Delangue, CEO da AI Dev Platform, abraçando o rosto, alertou sobre as consequências não intencionais das empresas ocidentais que se baseiam em cima de uma IA chinesa de bom desempenho e abertamente licenciado.

 
 

Veja também