A presença de agentes de IA na cibersegurança passou a influenciar diretamente a forma como operações defensivas e ofensivas são conduzidas. Em ambientes corporativos, esses agentes já assumem tarefas como correlação de eventos, triagem de alertas e identificação de comportamentos anômalos em larga escala. O efeito prático é a redução de ruído operacional e o ganho de velocidade na resposta, mas não a substituição do analista. A tomada de decisão segue dependente de profissionais experientes, capazes de interpretar contexto, impacto e intenção real por trás de cada sinal.
Na defesa, a principal contribuição dos agentes de IA está na sustentação operacional contínua. Eles executam tarefas repetitivas, monitoram padrões ao longo do tempo e alimentam equipes humanas com inteligência acionável. SOCs mais maduros começam a operar com menos alertas genéricos e mais priorização estratégica, mas o controle permanece humano. A IA acelera e organiza, enquanto o profissional define estratégia, valida hipóteses e responde a incidentes complexos que fogem de qualquer modelo estatístico.
No campo ofensivo, a realidade é mais contida do que muitas narrativas sugerem. Agentes de IA não realizam testes completos de forma autônoma nem substituem a capacidade analítica de um profissional qualificado. Hoje, seu papel está concentrado em apoio operacional, como automação de coleta, enumeração inicial, análise de respostas e geração de artefatos técnicos. Mesmo nessas funções, a supervisão humana é indispensável para evitar falsos positivos, leituras equivocadas e conclusões sem impacto real ao negócio.
Um caso recente envolvendo o uso do Claude Code ajuda a ilustrar esse ponto de equilíbrio. Em uma campanha avançada de ciberespionagem, a ferramenta foi utilizada como apoio para geração de código, organização de etapas e aceleração de tarefas repetitivas ao longo do ataque. Ainda assim, o planejamento, a validação das ações e as decisões estratégicas permaneceram sob controle de operadores humanos experientes. O episódio não representa autonomia plena da IA, mas evidencia como agentes ampliam eficiência quando integrados a equipes maduras.
O cenário que se consolida é menos sobre substituição e mais sobre amplificação de capacidade. Tanto na defesa quanto na ofensiva, agentes de IA funcionam como multiplicadores de eficiência, não como atores independentes. Organizações que tratam essa tecnologia como solução final criam uma falsa sensação de segurança. As que entendem a IA como apoio estrutural, combinada com profissionais qualificados e processos sólidos, avançam para um patamar mais realista e sustentável de maturidade em cibersegurança.



