Agentes de Código com IA são Alvo de Nova Ameaça à Cadeia de Suprimentos

Pesquisadores identificaram uma nova ameaça à cadeia de suprimentos que mira fluxos de trabalho automatizados com uso de inteligência artificial (IA). O ataque, batizado de “slopsquatting”, se aproveita da tendência de agentes de codificação baseados em IA de “alucinar” nomes de pacotes inexistentes durante a geração de código, levando desenvolvedores a instalar malware sem perceber. Diferente do typosquatting, que depende de erros de digitação humanos, o slopsquatting explora sugestões fictícias criadas por IA.

Cibercriminosos monitoram padrões comuns dessas “alucinações” em assistentes populares e registram previamente os nomes de pacotes falsos em repositórios públicos como PyPI. Quando desenvolvedores executam comandos gerados pela IA, acabam baixando e executando dependências maliciosas. O estudo analisou plataformas como Claude Code CLI (Anthropic), Codex CLI (OpenAI) e Cursor AI com validação MCP. Embora agentes avançados reduzam a incidência de dependências fantasmas em até 50% usando verificações em tempo real e consciência de contexto, o risco persiste em tarefas complexas. Até mesmo o Cursor AI, com validação reforçada, falhou em casos de “empréstimo de nomes” entre ecossistemas.

Como defesa, especialistas recomendam rastreamento de proveniência com SBOMs, escaneamento automático de vulnerabilidades e execução de comandos IA em ambientes isolados (Docker ou VMs efêmeras). Processos de validação em tempo real e revisão humana também são essenciais para impedir a instalação de pacotes suspeitos. Com o uso crescente de ferramentas de IA no desenvolvimento, o slopsquatting reforça a necessidade de frameworks de segurança robustos e de tratar a resolução de dependências como um fluxo auditável, e não apenas uma conveniência.

Leia mais na mesma categoria:

CibercriminososNotícias