Pesquisadores desenvolveram uma nova técnica de ataque que permite manipular o que sistemas de inteligência artificial enxergam em imagens. A técnica, chamada RisingAttack, afeta diretamente modelos de visão computacional, inclusive os mais populares e amplamente utilizados atualmente. O ataque é do tipo adversarial, ou seja, pequenas alterações são inseridas em uma imagem de forma quase imperceptível ao olho humano, mas suficientes para enganar completamente a IA.
Com isso, um sistema pode deixar de reconhecer sinais de trânsito, pedestres ou veículos, o que representa sérios riscos em contextos como veículos autônomos, exames médicos por imagem e sistemas de segurança. De acordo com o estudo, a RisingAttack supera técnicas anteriores ao apresentar maior taxa de sucesso com menos alterações na imagem original. O processo começa com a identificação de todos os elementos visuais da imagem e determina quais são mais relevantes para o objetivo do ataque.
Em seguida, o sistema calcula a sensibilidade da IA a essas mudanças e aplica alterações mínimas, mas eficazes, nos pontos mais sensíveis. Na prática, isso significa que duas imagens idênticas para um ser humano podem ter interpretações completamente diferentes para um sistema de IA. Em uma, o carro é identificado normalmente; na outra, o carro desaparece da análise da máquina. Segundo os pesquisadores, essa descoberta alerta para a necessidade de reforçar a segurança desses sistemas, já que muitos deles são usados em áreas onde a vida humana pode estar em risco.



