Ferramentas de IA se tornam novo risco de exposição de dados sensíveis

O uso crescente de ferramentas de inteligência artificial generativa, como ChatGPT, Copilot e Gemini, tem criado uma nova e preocupante superfície de risco para empresas de todo o mundo. Um relatório recente revelou que 77% dos funcionários compartilham informações corporativas em plataformas de IA, muitas vezes sem autorização ou proteção adequada.

O estudo mostra que 18% dos usuários corporativos colam dados diretamente em chatbots de IA, e cerca da metade desses envios contém informações confidenciais, como planilhas financeiras, códigos-fonte, credenciais, contratos e relatórios internos. Em muitos casos, esses dados são transmitidos por contas pessoais, fora do alcance das políticas de segurança e monitoramento da empresa. O fenômeno, conhecido como Shadow AI, ocorre quando funcionários usam ferramentas de IA por conta própria para otimizar tarefas do dia a dia, sem seguir diretrizes ou aprovações internas. Essa prática coloca em risco segredos comerciais e dados estratégicos, já que as informações fornecidas a esses modelos podem ser armazenadas temporariamente ou processadas em servidores externos.

De acordo com o relatório, o ChatGPT é responsável por 77% de todo o uso de IA generativa em ambientes corporativos, sendo a plataforma mais usada para redigir textos, revisar documentos e gerar relatórios. Outras soluções, como o Gemini do Google e o Copilot da Microsoft, também aparecem entre as mais populares, ampliando o desafio de controle e conformidade. Especialistas alertam que a falta de políticas claras de governança de IA e de soluções de Data Loss Prevention (DLP) cria brechas graves de segurança.

Leia mais na mesma categoria:

Mercado de CibersegurançaNotícias