Pesquisadores encontram falhas no Claude que permitem roubo de dados

Pesquisadores identificaram falhas no Claude que, quando exploradas em conjunto, podem permitir o roubo silencioso de dados sensíveis armazenados no histórico de conversas dos usuários. O caso chama atenção por atingir um assistente de IA amplamente usado em rotinas pessoais e corporativas, onde prompts e interações frequentemente concentram informações estratégicas.

A análise mostrou que o problema não depende necessariamente de um ambiente altamente customizado para funcionar. Em um dos cenários descritos, atacantes poderiam abusar de mecanismos de prompt pré-carregado para inserir instruções ocultas, sem que a vítima percebesse com clareza o conteúdo real enviado ao modelo.

Outra etapa da cadeia de ataque envolveria o uso indevido de recursos internos para reunir dados presentes no histórico da conversa e preparar esse material para envio externo. Na prática, isso abre espaço para a extração de informações como planejamentos, documentos resumidos, dados pessoais e outros conteúdos compartilhados durante o uso cotidiano da plataforma.

Os pesquisadores também apontaram a existência de um redirecionamento aberto que poderia ser usado para levar usuários a páginas maliciosas com aparência confiável. Esse tipo de falha amplia o risco porque permite combinar engenharia social com a credibilidade do próprio serviço para aumentar a taxa de sucesso do golpe.

O impacto potencial vai além do usuário individual. Em ambientes corporativos, assistentes de IA podem concentrar fluxos de trabalho, dados de projetos, informações financeiras, consultas técnicas e trechos de código. Em um cenário de exfiltração, esse material pode se tornar valioso para espionagem, fraude ou ataques posteriores mais direcionados.

Leia mais na mesma categoria:

NotíciasVulnerabilidades