Notícias

Cibercriminosos despistam as restrições do ChatGPT para criar malware

Nos fóruns da Dark Web, os cibercriminosos já estão compartilhando guias e ferramentas que mostram como contornar as restrições e barreiras dos desenvolvedores OpenAI

A Check Point Research (CPR), divisão de Inteligência em Ameaças da Check Point® Software Technologies Ltd. (NASDAQ: CHKP), uma fornecedora líder de soluções de cibersegurança global, descobriu que os cibercriminosos aumentaram o uso de bots do Telegram com o objetivo de criar uma nova metodologia que gerenciam para contornar as restrições de antiabuso do ChatGPT e outras ferramentas baseadas na OpenAI. O principal objetivo é poder usar esses recursos para depurar e melhorar o código malicioso.

Ciente desse problema, a OpenAI atualizou sua política de conteúdo, criando barreiras e restrições para tentar impedir a criação de conteúdo malicioso. Várias restrições foram colocadas na interface do usuário do ChatGPT para evitar seu uso inapropriado. Por exemplo, a partir de agora a IA não irá gerar respostas para pedidos com referências específicas à criação de malware ou e-mails de phishing que tentem se fazer passar por um banco ou outras entidades.

No entanto, os cibercriminosos já estão trabalhando para contornar as restrições do ChatGPT. Como a equipe de pesquisadores da Check Point Research detectou, atualmente há muita atividade em fóruns clandestinos, onde as pessoas falam sobre como usar a API OpenAI para superar as barreiras e limitações dessas ferramentas, destacando um modelo com foco na criação e distribuição do de bots do Telegram que emulam a API ChatGPT.

Especificamente, a CPR detectou anúncios de bots do Telegram em fóruns clandestinos. Os bots utilizam a API da OpenAI para permitir que um atacante crie e-mails ou códigos maliciosos. Os criadores do bot concedem até 20 consultas gratuitas, mas cobram US$ 5,50 por cada 100 consultas. Um custo praticamente zero em comparação com os altos lucros obtidos com esse tipo de ataque cibernético.

Os cibercriminosos continuam sua exploração sobre como usar o ChatGPT para desenvolver malware e e-mails de phishing. À medida que os controles implementados pelo ChatGPT melhoram, eles encontram novas maneiras de usar os modelos OpenAI.

“Como parte de sua política de conteúdo, a OpenAI criou barreiras e restrições para impedir a criação de conteúdo malicioso em sua plataforma. No entanto, verificamos cibercriminosos contornando as restrições do ChatGPT, e há conversas ativas nos fóruns clandestinos revelando como usar a API OpenAI para contornar as barreiras e limitações do ChatGPT. Isso é feito principalmente criando bots do Telegram que usam a API, e esses bots são anunciados em fóruns de hackers para aumentar sua exposição”, detalha Sergey Shykevich, gerente do Grupo de Ameaças da Check Point Software.

Shykevich explica ainda que a versão atual da API do OpenAI é usada por aplicativos externos e possui muito poucas medidas antiabuso em vigor. Como resultado, permite a criação de conteúdo malicioso, como e-mails de phishing e código de malware, sem as limitações ou barreiras que o ChatGPT definiu em sua interface de usuário. “No momento, estamos vendo esforços contínuos de cibercriminosos para encontrar maneiras de despistar as restrições do ChatGPT.”