O modelo de inteligência artificial DeepSeek‑R1, desenvolvido por uma empresa chinesa, está no centro de uma polêmica após pesquisadores revelarem que ele pode gerar código inseguro em determinados contextos. A vulnerabilidade não está relacionada a um erro técnico comum, mas sim à forma como o modelo responde a prompts que mencionam temas politicamente sensíveis para a China, como Tibete, Uigures ou Falun Gong.
Segundo especialistas em cibersegurança, a probabilidade de o DeepSeek‑R1 produzir código com falhas graves aumenta significativamente quando essas palavras‑chave estão presentes. Em testes controlados, a taxa de geração de código inseguro saltou de 19% para 27,2%, com exemplos incluindo dados confidenciais embutidos no código, ausência de autenticação e uso de práticas desatualizadas ou perigosas. Um dos casos analisados envolvia a criação de um sistema de notificações de pagamento para uma entidade tibetana. O código gerado era inválido e expunha informações sensíveis.
Em outro cenário, o modelo falhou em implementar qualquer forma de controle de acesso em um aplicativo Android voltado para usuários uigures. Além disso, foi observado que o DeepSeek‑R1 se recusa a responder em quase metade dos casos quando os prompts abordam temas banidos na China. Isso levanta suspeitas de que o modelo tenha “interrupções programadas” para censura, alinhadas a políticas regulatórias chinesas. A descoberta reacende o debate sobre o uso de IA para desenvolvimento de software e os riscos que isso representa para segurança e confiabilidade, especialmente quando os modelos são ajustados para atender a exigências políticas ou ideológicas.



