Depois do Google e do Baidu, o Alibaba também quer saltar para o comboio da IA Generativa. Entretanto, os potenciais problemas com estas ferramentas estão a tornar-se cada vez mais evidentes.

Por Florian Maier
Como a agência noticiosa Reuters informa, o gigante chinês do comércio eletrónico Alibaba está também a trabalhar numa ferramenta de IA ao estilo do ChatGPT – e está assim a entrar na corrida pelo domínio da IA generativa.
Após o ChatGPT ter tomado a web de assalto, o Google reagiu primeiro – aparentemente precipitadamente – e apresentou o seu chatbot “Bard” (incluindo um embaraçoso fracasso de demonstração). A Meta tinha disponibilizado o seu projeto generativo de IA “Galactica” mesmo antes do ChatGPT, mas retirou o projeto após apenas três dias devido a numerosas queixas de utilizadores sobre resultados incorretos.
Entretanto, a Baidu foi a primeira empresa chinesa a anunciar a sua intenção de preencher a vaga do ChatGPT no mercado chinês (onde a oferta OpenAI não é acessível) com o chatbot “Ernie”. Para além de Alibaba, segundo a Reuters, a empresa chinesa JD.com também anunciou que integrará funcionalidades do tipo ChatGPT nos seus produtos.
A corrida da IA com consequências imprevisíveis?
Enquanto o hype train rola incessantemente, as limitações e problemas das ferramentas generativas de IA estão também a tornar-se cada vez mais evidentes: a revista norte-americana Vice, por exemplo, relata que alguns utilizadores já estão a fazer tudo o que podem para “retirar o ChatGPT da prisão” a fim de conseguir que o bot produza teorias de conspiração e discurso de ódio.
Os investigadores Jessica Rumbelow e Matthew Watkins descobriram agora também alguns termos (que aparentemente são nomes de utilizador Reddit) que podem ser usados para “crashar” o ChatGPT: As “fichas anómalas” desencadeiam um “modo de falha” e fazem com que o chatbot produza resultados sem sentido, estranhos ou ofensivos.
Falando com a Vice, Watkins criticou a atual propaganda da IA generativa: “Na minha opinião, está tudo a acontecer demasiado depressa – ainda não temos o know-how para lidar com esta tecnologia. Quanto mais cedo as pessoas perceberem que as pessoas que parecem saber o que estão a fazer não compreendem realmente com o que estão a lidar, mais cedo isso talvez ajude a libertar um pouco os travões culturais. Não precisamos de nos apressar e não devemos apressar-nos – agora está a tornar-se um pouco perigoso”.
O quão perigoso tem sido explorado por estudiosos noutros locais. Num artigo recente, os investigadores pintam um quadro sombrio para o futuro: segundo eles, a IA generativa poderia dar um novo impulso aos teóricos da conspiração e à difusão de notícias falsas e tornar muito mais fácil a criação e difusão de tal informação no futuro.
NewsGuard tem estado a trabalhar na forma como a ferramenta responde a teorias de conspiração e notícias falsas desde o lançamento do ChatGPT. O Co-CEO Gordon Crovitz, falando ao New York Times, é claro: “A ferramenta tornar-se-á a ferramenta mais poderosa para divulgar notícias falsas que a Internet alguma vez viu. Permitirá a criação de novas narrativas falsas a uma escala dramática e com uma frequência alarmante”.
Além disso, as pessoas nos círculos cibercriminosos têm lidado com o ChatGPT (e Co.) há igualmente muito tempo. Os peritos em segurança da Check Point Research resumiram atividades anteriores nesta área num post. De acordo com isto, os hackers criminosos já foram capazes de criar com sucesso malware com a ajuda do ChatGPT:
- Criar malware,
- ferramentas de encriptação de código
- mercados de Darknet.
“Ainda é demasiado cedo para fazer uma declaração sobre se as características do ChatGPT se tornarão as ferramentas favoritas dos atores da web negra no futuro. No entanto, a comunidade do cibercrime já está a demonstrar um interesse significativo e a participar nesta tendência para gerar código malicioso”, resumem os profissionais de segurança.