Ferramentas de inteligência artificial desenvolvidas pela Anthropic foram exploradas por um grupo de hackers ligado ao Estado chinês para conduzir uma campanha de espionagem em larga escala. O ataque mirou empresas de tecnologia, instituições financeiras, setores industriais e órgãos governamentais em diversos países. A operação, identificada em setembro de 2025, foi batizada internamente pela Anthropic como “GTG‑1002”.
Segundo a empresa, os invasores utilizaram o modelo Claude Code, voltado à automação de tarefas de programação, para executar diversas etapas do ataque: desde a identificação de alvos e vulnerabilidades até a exfiltração de dados e movimentação lateral dentro das redes. O que torna esse caso particularmente alarmante é o alto grau de automação: de 80% a 90% do ataque teria sido conduzido diretamente pela IA, com pouca ou nenhuma intervenção humana durante a execução. A velocidade e complexidade da operação, segundo a Anthropic, seriam praticamente impossíveis de replicar com recursos humanos tradicionais.
Embora a empresa não tenha divulgado a identidade dos alvos, confirmou que a campanha afetou cerca de 30 organizações, algumas das quais sofreram comprometimentos efetivos. O uso da IA permitiu que o ataque fosse conduzido de forma discreta, eficiente e em múltiplas frentes simultâneas. Este é um dos primeiros casos documentados de uso ofensivo de IA generativa em uma campanha estruturada de ciberespionagem. A própria Anthropic revelou os detalhes em um relatório que busca alertar sobre os riscos do uso indevido de ferramentas avançadas por agentes estatais.



