A OpenAI corrigiu uma falha no ChatGPT que poderia permitir a exfiltração silenciosa de dados sensíveis compartilhados por usuários durante conversas e tarefas com execução de código.
A vulnerabilidade foi identificada por pesquisadores da Check Point Research, que mostraram como o ambiente isolado usado para análises podia ser abusado para enviar informações para fora da plataforma sem alertas visíveis ao usuário.
Segundo a pesquisa, o problema estava no fato de o sandbox bloquear conexões HTTP externas, mas ainda permitir consultas de DNS.
Esse detalhe abria espaço para o uso de DNS tunneling, técnica em que dados são codificados em subdomínios e enviados a um servidor controlado pelo invasor por meio de requisições aparentemente comuns de resolução de nomes.
Na prática, o ataque poderia começar com um prompt malicioso disfarçado de dica para liberar recursos ou melhorar produtividade.
Os pesquisadores afirmam que a mesma lógica também poderia ser embutida em Custom GPTs, permitindo que arquivos enviados, prompts e respostas geradas fossem extraídos do ambiente de forma furtiva.
O risco era especialmente relevante porque usuários frequentemente compartilham com o ChatGPT documentos financeiros, informações médicas, código proprietário e outros dados confidenciais.
Em um cenário de exploração, esse material poderia sair do ambiente sem passar pelos mecanismos mais visíveis de autorização previstos para outras ações externas.
A Check Point também apontou que o canal poderia funcionar de maneira bidirecional, permitindo o envio de instruções ao ambiente isolado por meio de respostas DNS.
Isso ampliava o impacto potencial da falha e mostrava que a ameaça não se limitava ao vazamento passivo de informações.
De acordo com a publicação, a OpenAI corrigiu o problema em 20 de fevereiro de 2026, bloqueando o canal explorado na demonstração.
Assim, a falha descrita pelos pesquisadores já não permanece aberta da forma apresentada no estudo.



