A OpenAI anunciou a suspensão de diversas contas do ChatGPT vinculadas a grupos de hackers ligados a governos da Rússia, China e Irã, após detectar o uso indevido da ferramenta para fins maliciosos. Segundo a empresa, esses agentes estatais utilizaram os modelos de IA para atividades como desenvolvimento de malware, automação de campanhas em redes sociais e pesquisas sobre tecnologias de comunicação.
Um dos grupos, identificado como russo, usou o ChatGPT para aprimorar malwares em Go, depurar códigos e configurar infraestruturas de comando e controle. Essa operação, chamada de “ScopeCreep”, também usou repositórios públicos para distribuir malware disfarçado como ferramenta legítima para gamers. O código malicioso visava escalar privilégios, burlar o Windows Defender, exfiltrar dados como credenciais e cookies, e notificar os operadores via Telegram.
Outros grupos banidos estão ligados às APTs chinesas APT5 e APT15, que usaram o ChatGPT para modificar scripts, solucionar problemas de sistema e desenvolver códigos voltados a tarefas como administração de servidores, força bruta em FTPs e automação de interações em redes sociais como Facebook, Instagram e TikTok.
Além disso, a OpenAI detalhou operações de influência e golpes, como redes norte-coreanas que criavam materiais falsos para fraudes de emprego em TI, e campanhas de desinformação chinesas, russas e iranianas que usavam a IA para gerar postagens e comentários sobre temas políticos e geopolíticos, disseminados por contas falsas.
A empresa reforçou seu compromisso em monitorar e impedir o uso indevido de seus modelos, colaborando com autoridades e especialistas em segurança para mitigar riscos associados à IA.



