Esta é a opinião de quase 70% dos executivos seniores de todo o mundo inquiridos pela Gartner no segundo trimestre deste ano. Os líderes estão preocupados com a disponibilidade em massa de plataformas como o ChatGPT ou o Bard e com os desafios que estas tecnologias colocam.

A disponibilidade em massa de tecnologia de Inteligência Artificial (IA) generativa, com o ChatGPT, criado pela OpenAI, e o Bard, criado pela Google, como os principais expoentes desta tendência, é uma grande preocupação e um risco comercial emergente para 66% dos 249 executivos inquiridos pela Gartner no último trimestre. Especificamente, esta tendência é vista como o segundo maior risco de negócio, atrás da viabilidade de terceiros (67%) e à frente de outros como a incerteza do planeamento financeiro (63%), a concentração na cloud (62%) e as tensões comerciais entre a China e o Ocidente (56%).
Curiosamente, como aponta a consultora, pela primeira vez a IA generativa aparece entre os 10 principais riscos de negócios. Para Ran Xu, diretor de investigação da prática de auditoria e risco da Gartner, isto “reflete tanto o rápido crescimento da utilização de ferramentas de IA generativa e a existência de uma consciência pública sobre as mesmas, como a escala dos potenciais casos de utilização e, por conseguinte, dos potenciais riscos que estas ferramentas geram”.
Atenção à propriedade intelectual, à proteção dos dados e à cibersegurança
Os especialistas da empresa de análise destacam três questões-chave para as quais os executivos de negócios devem estar atentos com a proliferação de ferramentas de IA generativa: propriedade intelectual, privacidade de dados e cibersegurança. Relativamente à primeira, os analistas da Gartner alertam para a necessidade de educar os líderes empresariais para a importância de acautelar e defender a transparência na utilização destas ferramentas. A informação que é introduzida numa ferramenta de IA generativa, alertam, pode ser sensível ou confidencial e isso pode acabar por chegar a outros utilizadores através dos resultados que a ferramenta lhes fornece. “Além disso, a utilização dos resultados destas ferramentas pode acabar por infringir inadvertidamente os direitos de propriedade intelectual de outros utilizadores”, afirma Xu.
No que diz respeito à privacidade dos dados, os especialistas da Gartner afirmam que é possível que as ferramentas de IA generativa partilhem informações do utilizador com terceiros, como fornecedores ou prestadores de serviços, sem aviso prévio. “Isso pode violar a lei de privacidade em muitas jurisdições. Por exemplo, a regulamentação já foi implementada na China e na UE, com propostas de regulamentação a surgir nos EUA, Canadá, Índia e Reino Unido, entre outros.”
Finalmente, não se deve esquecer, diz Xu, que os cibercriminosos “estão sempre a testar novas tecnologias para subverter a sua utilização para os seus próprios fins, e a IA generativa não é exceção”. Por exemplo, diz ele, a IA generativa foi enganada para gerar código de malware e ransomware, ou essas plataformas foram atacadas para fornecer informações que não deveriam, o que está leva à industrialização de ataques avançados de phishing.