Hackers encontram formas de usar o ChatGPT para lançar malware

De acordo com a Check Point Research, mesmo perante as restrições anti-abuso, os criminosos informáticos estão a apoiar-se na ferramenta para sofisticar código malicioso.

Os cibercriminosos estão a encontrar novas formas de explorar o ChatGPT e outras ferramentas baseadas na OpenAI para desenvolver malware e e-mails de phishing, mesmo perante as restrições anti-abuso do ChatGPT.

De acordo com os resultados da Check Point Research (CPR), os hackers estão a aumentar o uso de bots de telegramas com o objetivo de criar uma nova metodologia que contorna as restrições da plataforma de Inteligência Artificial de conversação, que se tornou uma sensação nos últimos dias. O principal objetivo dos cibercriminosos é utilizar estas capacidades de IA para depurar e melhorar o código malicioso que libertam.

Consciente deste problema, a OpenAI atualizou a sua política de conteúdo, criando barreiras e restrições numa tentativa de impedir a criação de conteúdo malicioso. Foram colocadas várias restrições à interface de utilizador ChatGPT para impedir a sua utilização inadequada, tais como o facto de, a partir de agora, a IA não gerar respostas a pedidos com referências específicas à criação de malware ou e-mails de phishing que tentam fazer-se passar por um banco ou outras entidades.

A equipa do CPR, contudo, alertou para a intensa atividade em fóruns subterrâneos que revelam que os cibercriminosos estão a trabalhar para contornar estas restrições. Nos fóruns Dark Web, as pessoas falam sobre como utilizar a própria API do OpenAI para ultrapassar as barreiras e limitações destas ferramentas, destacando um modelo centrado na criação e distribuição de bots de telegramas que imitam a API do ChatGPT.

“Como parte da sua política de conteúdo, a OpenAI criou barreiras e restrições para impedir a criação de conteúdo malicioso na sua plataforma. No entanto, verificámos cibercriminosos a contornar as restrições do ChatGPT, e há conversas ativas em fóruns subterrâneos que revelam como utilizar a API do OpenAI para contornar as barreiras e limitações do ChatGPT. Isto é feito principalmente através da criação de telegramas bots que utilizam a API, e estes bots são anunciados em fóruns de hackers para aumentar a sua exposição”, detalha Sergey Shykevich, gestor do Grupo de Ameaças na Check Point Software.

Os criadores de bot concedem até 20 consultas gratuitas, mas cobram 5,50 dólares por cada 100 consultas. “Um custo praticamente zero em comparação com os elevados lucros obtidos com este tipo de ataque cibernético”, avalia o CPR.

Shykevich explica ainda que a versão atual da OpenAI API é utilizada por aplicações externas e tem muito poucas medidas anti-abuso em vigor. Como resultado, permite a criação de conteúdos maliciosos, tais como e-mails de phishing e código malware, sem as limitações ou barreiras que o ChatGPT tem estabelecido na sua interface de utilizador. “Neste momento, estamos a assistir a esforços contínuos de cibercriminosos para encontrar formas de escapar às restrições do ChatGPT”, advertiu.




Deixe um comentário

O seu email não será publicado