Falhas em framework de IA expõem nuvens corporativas a invasões e roubo de dados

Duas vulnerabilidades críticas no Chainlit, um framework de código aberto usado para construir chatbots com IA, colocaram empresas de setores como financeiro, energia e universidades em risco de exposição de dados e invasões completas em suas infraestruturas de nuvem. A falha foi descoberta pela empresa de segurança Zafran, que classificou os bugs como fáceis de explorar. O Chainlit é um pacote Python popular, com cerca de 700 mil downloads mensais, que permite a construção de aplicações de IA prontas para produção. Ele integra-se com ferramentas como OpenAI, LangChain e Bedrock, oferecendo suporte a autenticação e implantação em nuvem.

Os problemas afetam versões anteriores à 2.9.4, já corrigidas pelos desenvolvedores após notificação em novembro de 2025. As falhas são identificadas como CVE-2026-22218, que permite leitura arbitrária de arquivos, e CVE-2026-22219, uma falha de SSRF (Server-Side Request Forgery). Combinadas, elas possibilitam que atacantes leiam variáveis de ambiente com dados sensíveis, como chaves da AWS e segredos de autenticação, podendo forjar tokens e assumir o controle de contas Chainlit. Ao explorar a leitura arbitrária, um atacante pode acessar o arquivo /proc/self/environ, contendo informações cruciais do sistema, como credenciais e caminhos internos. Em ambientes com autenticação habilitada, o risco é ainda maior, pois é possível obter os segredos usados para assinar tokens e, assim, invadir contas de usuários.

Já a vulnerabilidade de SSRF permite que o invasor envie comandos modificados para acessar dados internos via APIs privadas. A falha foi localizada na camada de dados SQLAlchemy, usada por muitos sistemas para persistência de dados e interação com bancos de dados. Segundo os pesquisadores, os ataques exigem apenas um comando simples com valores alterados para indicar o arquivo ou endereço desejado. As duas vulnerabilidades, quando usadas em conjunto, aumentam significativamente o impacto, permitindo movimentação lateral e extração de grandes volumes de informações. O caso alerta para os riscos crescentes associados ao uso de frameworks de IA em ambientes corporativos. A pressão por entregar soluções rapidamente tem levado muitas equipes a integrar ferramentas de terceiros sem conhecimento profundo de sua segurança.

Leia mais na mesma categoria:

CibercriminososNotíciasVulnerabilidades