Pesquisadores criam versão do DeepSeek sem a censura chinesa

Pesquisadores criam versão do DeepSeek sem a censura chinesa

Versão modificada é livre de restrições de conteúdo (ilustração: Vitor Pádua/Tecnoblog)

Resumo

A Multiverse Computing desenvolveu o DeepSeek R1 Slim, uma versão 55% menor que remove restrições de conteúdo chinesas.
O modelo usa redes tensoriais para comprimir dados e editar vieses, reduzindo custos computacionais e consumo de energia.
Testes apontam qualidade similar ao original, com respostas factuais comparáveis a sistemas ocidentais.

Pesquisadores da empresa espanhola Multiverse Computing anunciaram o desenvolvimento do DeepSeek R1 Slim, uma versão modificada e 55% menor que o poderoso modelo da China. A principal novidade é a queda das restrições de conteúdo impostas pelos desenvolvedores chineses, permitindo que o sistema responda a perguntas sobre temas sensíveis.

O projeto utiliza abordagens matemáticas inspiradas na computação quântica para comprimir o modelo e editar seus vieses com precisão. A ideia é oferecer uma alternativa no futuro para a redução de custos computacionais e consumo de energia, gargalos frequentes no desenvolvimento de novas IAs generativas.

Como foi feito?

Segundo a revista MIT Technology Review, a Multiverse aplicou uma abordagem baseada em “redes tensoriais”, um conceito matemático complexo frequentemente utilizado na física quântica. Essa técnica pode manipular grandes conjuntos de dados de forma mais eficiente e permitiu aos cientistas criar um “mapa” detalhado de todas as correlações existentes dentro do modelo original.

Com esse mapeamento, foi possível identificar e remover as camadas de censura que alinham o modelo aos valores exigidos pelas regulações da China. Na prática, isso possibilitou a exclusão de bloqueios que impediam a IA de discutir certos tópicos, como referências envolvendo o presidente Xi Jinping.

Após a compressão e a edição dos parâmetros, os pesquisadores realizaram ajustes finos para garantir que a qualidade da resposta permanecesse próxima à do modelo original.

Para validar a eficácia, a equipe submeteu o DeepSeek R1 Slim a um teste com cerca de 25 perguntas sobre assuntos restritos. As respostas foram avaliadas pelo GPT-5, da OpenAI, que confirmou que o novo modelo forneceu respostas factuais comparáveis às de sistemas ocidentais.

Equipe conseguiu reduzir em 55% o tamanho do sistema (foto: Giovanni Santa Rosa/Tecnoblog)

Corrida por modelos mais eficientes

A iniciativa da Multiverse é mais uma na busca por eficiência na indústria de inteligência artificial. A própria DeepSeek tem trabalhado em “tokens visuais” para melhorar a memória de IAs e tornar seus modelos mais eficazes.

Atualmente, a operação de modelos de ponta exige GPUs de alto desempenho e um consumo energético elevado. À revista, o cofundador e diretor científico da Multiverse, Roman Orús, afirmou que modelos atuais são ineficientes e que versões comprimidas podem economizar recursos mantendo um desempenho similar. A empresa planeja comprimir outros modelos de código aberto no futuro.

Além disso, a liberdade de conteúdo também impulsiona o mercado. A remoção das restrições em modelos chineses tem atraído atenção de outras empresas do setor. A Perplexity, por exemplo, tem o R1 1776, outra variante pós-treinada a partir do DeepSeek R1.
Pesquisadores criam versão do DeepSeek sem a censura chinesa

Pesquisadores criam versão do DeepSeek sem a censura chinesa
Fonte: Tecnoblog