IA da Anthropic é usada por cibercriminosos chineses em campanha de espionagem global

Ferramentas de inteligência artificial desenvolvidas pela Anthropic foram exploradas por um grupo de hackers ligado ao Estado chinês para conduzir uma campanha de espionagem em larga escala. O ataque mirou empresas de tecnologia, instituições financeiras, setores industriais e órgãos governamentais em diversos países. A operação, identificada em setembro de 2025, foi batizada internamente pela Anthropic como “GTG‑1002”.

Segundo a empresa, os invasores utilizaram o modelo Claude Code, voltado à automação de tarefas de programação, para executar diversas etapas do ataque: desde a identificação de alvos e vulnerabilidades até a exfiltração de dados e movimentação lateral dentro das redes. O que torna esse caso particularmente alarmante é o alto grau de automação: de 80% a 90% do ataque teria sido conduzido diretamente pela IA, com pouca ou nenhuma intervenção humana durante a execução. A velocidade e complexidade da operação, segundo a Anthropic, seriam praticamente impossíveis de replicar com recursos humanos tradicionais.

Embora a empresa não tenha divulgado a identidade dos alvos, confirmou que a campanha afetou cerca de 30 organizações, algumas das quais sofreram comprometimentos efetivos. O uso da IA permitiu que o ataque fosse conduzido de forma discreta, eficiente e em múltiplas frentes simultâneas. Este é um dos primeiros casos documentados de uso ofensivo de IA generativa em uma campanha estruturada de ciberespionagem. A própria Anthropic revelou os detalhes em um relatório que busca alertar sobre os riscos do uso indevido de ferramentas avançadas por agentes estatais.

Leia mais na mesma categoria:

CibercriminososNotíciasVulnerabilidades