A IA está a caminho de mais do dobro da capacidade computacional todos os anos – e isso, dizem alguns, poderá levar a uma inteligência auto-perpetuadora, cujo impacto permanece desconhecido.

Por Lucas Mearian
Na semana passada, um quem é quem dos tecnólogos apelou a laboratórios de inteligência artificial (IA) para que parassem de treinar os sistemas de IA mais poderosos durante pelo menos seis meses, citando “riscos profundos para a sociedade e a humanidade”.
Numa carta aberta que tem agora mais de 3.100 signatários, incluindo o cofundador da Apple, Steve Wozniak, os líderes tecnológicos referiram o algoritmo GPT-4 recentemente anunciado pelo OpenAI Lab em particular, dizendo que a empresa deveria parar o desenvolvimento futuro até que os padrões de supervisão estivessem em vigor. Este objetivo tem o apoio de tecnólogos, CEO, CFO, estudantes de doutoramento, psicólogos, médicos, programadores e engenheiros de software e professores de escolas públicas de todo o mundo.
Na passada sexta-feira, Itália tornou-se na primeira nação ocidental a proibir um maior desenvolvimento do ChatGPT devido a preocupações de privacidade; a aplicação de processamento de linguagem natural sofreu no mês passado uma violação de dados envolvendo conversas de utilizadores e informação sobre pagamentos. O ChatGPT é o popular chatbot baseado em GPT criado pela OpenAI e apoiado por milhares de milhões de dólares da Microsoft.
A autoridade italiana de proteção de dados disse que também está a investigar se o chatbot da OpenAI já violou as regras do Regulamento Geral de Proteção de Dados da União Europeia criado para proteger dados pessoais dentro e fora da UE. A OpenAI cumpriu a nova lei, de acordo com um relatório da BBC.
A expectativa entre muitos na comunidade tecnológica é que o GPT, que significa Generative Pre-Train Transformer (Transformador Generativo Pré-formado), avance para se tornar no GPT-5 – e essa versão será uma inteligência geral artificial, ou AGI. A AGI representa a IA que pode pensar por si própria, e nessa altura o algoritmo continuaria a crescer exponencialmente mais inteligente ao longo do tempo.
Por volta de 2016, surgiu uma tendência nos modelos de treino de IA que eram duas a três ordens de magnitude maiores do que os sistemas anteriores, de acordo com Epoch, um grupo de investigação que tentava prever o desenvolvimento da IA transformadora. Essa tendência tem continuado.
Não existem atualmente sistemas de IA maiores do que o GPT-4 em termos de cálculo de formação, de acordo com Jaime Sevilla, diretor da Epoch. Mas isso vai mudar.
Anthony Aguirre, professor de física na UC Santa Cruz e vice-presidente executivo da Future of Life, a organização sem fins lucrativos que publicou a carta aberta aos programadores, disse que não há razão para acreditar que o GPT-4 não continuará a duplicar em capacidades computacionais todos os anos.
“Os cálculos em maior escala estão a aumentar de tamanho cerca de 2,5 vezes por ano. Os parâmetros do GPT-4 não foram divulgados pela OpenAI, mas não há razão para pensar que esta tendência tenha parado ou mesmo abrandado”, disse Acquirre. “Só os próprios laboratórios sabem que cálculos estão a fazer, mas a tendência é inconfundível”.
No seu blogue quinzenal de 23 de março, o cofundador da Microsoft Bill Gates anunciou a AGI – que é capaz de aprender qualquer tarefa ou assunto – como “o grande sonho da indústria informática”.
“A AGI ainda não existe – está em curso um debate robusto na indústria informática sobre como criá-la, e se ela pode sequer ser criada”, escreveu Gates. “Agora, com a chegada da aprendizagem da máquina e grandes quantidades de poder computacional, as IA sofisticadas são uma realidade, e vão melhorar muito rapidamente”.
Muddu Sudhakar, CEO da Aisera, uma empresa de IA generativa para empresas, disse que há apenas um punhado de empresas focadas em atingir a AGI como a OpenAI e a DeepMind (apoiadas pelo Google), embora tenham “enormes quantidades de recursos financeiros e técnicos”.
Mesmo assim, eles têm um longo caminho a percorrer para chegar à AGI, disse ele.
“Há tantas tarefas que os sistemas de IA não podem fazer que os humanos possam fazer naturalmente, como o raciocínio de senso comum, saber o que é um facto e compreender conceitos abstratos (tais como justiça, política e filosofia)”, disse Sudhakar num e-mail para a Computerworld. “Haverá necessidade de muitos avanços e inovações para a AGI. Mas se isto for conseguido, parece que este sistema substituiria sobretudo os seres humanos”.
“Isto seria certamente perturbador e teria de haver muitos guardrails para impedir a AGI de assumir o controlo total”, disse Sudhakar. “Mas por agora isto é provável num futuro distante. É mais no domínio da ficção científica”.
Nem todos concordam.
A tecnologia da IA e os assistentes de chatbot têm e continuarão a fazer incursões em quase todas as indústrias. A tecnologia pode criar eficiências e assumir tarefas mundanas, libertando os trabalhadores do conhecimento e outros para se concentrarem em trabalhos mais importantes.
Por exemplo, os modelos de grandes línguas (LLM) – os algoritmos que alimentam os “chatbots” – podem filtrar milhões de alertas, chats em linha, e e-mails, bem como encontrar páginas web de phishing e executáveis potencialmente maliciosos. Os chatbots alimentados por LLM podem escrever ensaios, campanhas de marketing e sugerir código informático, tudo a partir de simples pedidos de utilizadores (sugestões).
Os chatbots alimentados por LLM são processadores de linguagem natural que basicamente preveem as próximas palavras depois de terem sido solicitados por uma pergunta de um utilizador. Assim, se um utilizador pedisse a um chatbot para criar um poema sobre uma pessoa sentada numa praia em Nantucket, a IA iria simplesmente encadear palavras, frases e parágrafos que são as melhores respostas baseadas na formação prévia dos programadores.
Mas os LLM também cometeram erros de alto nível, e podem produzir “alucinações” em que os motores da próxima geração de palavras se desviam dos carris e produzem respostas bizarras.
Se a IA baseada em LLM com milhares de milhões de parâmetros ajustáveis pode descarrilar, quanto maior seria o risco quando a IA já não precisa de humanos para a ensinar, e pode pensar por si mesma? A resposta é muito maior, de acordo com Avivah Litan, vice-presidente e analista distinto da Gartner Research.
Litan acredita que os laboratórios de desenvolvimento de IA estão a avançar a uma velocidade vertiginosa sem qualquer supervisão, o que poderia resultar na AGI tornar-se incontrolável.
Os laboratórios de IA, argumentou, “têm avançado sem colocar as ferramentas adequadas para os utilizadores monitorizarem o que se está a passar. Penso que está a ir muito mais depressa do que alguém alguma vez esperou”, disse.
A preocupação atual é que a tecnologia da IA para utilização pelas corporações está a ser lançada sem as ferramentas de que os utilizadores necessitam para determinar se a tecnologia está a gerar informação precisa ou imprecisa.
“Neste momento, estamos a falar de todos os bons que têm toda esta capacidade inovadora, mas os maus também a têm”, disse Litan. “Portanto, temos de ter estes sistemas de marcação de água e saber o que é real e o que é sintético”. E não podemos confiar na deteção, temos de ter autenticação de conteúdo. Caso contrário, a desinformação vai espalhar-se como fogo selvagem”.
Por exemplo, a Microsoft lançou esta semana o Security Copilot, que se baseia no modelo de linguagem grande GPT-4 do OpenAI. A ferramenta é um chatbot de IA para especialistas em cibersegurança para os ajudar a detetar e responder rapidamente a ameaças e a compreender melhor o panorama geral das ameaças.
O problema é que “como utilizador tem de entrar e identificar quaisquer erros que cometa”, disse Litan. “Isso é inaceitável”. Eles deveriam ter algum tipo de sistema de pontuação que diga que este resultado é provavelmente 95% verdadeiro, e por isso tem uma probabilidade de 5% de erro. E este tem uma probabilidade de erro de 10%. Eles não lhe estão a dar qualquer perspetiva sobre o desempenho para ver se é algo em que se possa confiar ou não”.
Uma preocupação maior num futuro não tão distante é que o criador do GPT-4, OpenAI, irá lançar uma versão com capacidade AGI. Nesse momento, poderá ser demasiado tarde para controlar a tecnologia.
Uma solução possível, sugeriu Litan, é o lançamento de dois modelos para cada ferramenta de IA generativa – um para gerar respostas, o outro para verificar a precisão do primeiro.
“Isso poderia fazer um trabalho realmente bom para assegurar se um modelo está a lançar algo em que se pode confiar”, disse. “Não se pode esperar que um ser humano passe por todo este conteúdo e decida o que é verdade ou não, mas se lhes der outros modelos que estejam a verificar…, isso permitiria aos utilizadores controlar o desempenho”.
Em 2022, a Time relatou que a OpenAI tinha subcontratado serviços a trabalhadores com baixos salários no Quénia para determinar se o seu GPT LLM estava a produzir informação segura. Os trabalhadores contratados pela Sama, uma empresa sediada em São Francisco, foram pagos a $2 por hora e obrigados a peneirar através de respostas de aplicações GPT “que eram propensas a esbater comentários violentos, sexistas e até racistas”.
“E é assim que nos está a proteger? Pagando às pessoas $2 por hora e que estão a ficar doentes. É totalmente ineficiente e é totalmente imoral”, disse Litan.
“Os criadores de IA precisam de trabalhar com os decisores políticos, e estes devem, no mínimo, incluir autoridades reguladoras novas e capazes”, continuou Litan. “Não sei se alguma vez lá chegaremos, mas os reguladores não conseguem acompanhar isto, e isso foi previsto há anos atrás. Precisamos de arranjar um novo tipo de autoridade”.
Shubham Mishra, cofundador e CEO global da AI start-up Pixis, acredita que enquanto o progresso no seu campo “não pode, nem deve, parar”, o apelo a uma pausa no desenvolvimento da AI é justificado. A IA generativa, disse ele, tem o poder de confundir as massas através de propaganda ou informação “difícil de distinguir” no domínio público.
“O que podemos fazer é planear este progresso”. Isto só pode ser possível se todos nós concordarmos mutuamente em pausar esta corrida e concentrar a mesma energia e esforços na construção de diretrizes e protocolos para o desenvolvimento seguro de modelos maiores de IA”, disse Mishra num e-mail à Computerworld.
“Neste caso particular, o apelo não é para uma proibição geral do desenvolvimento de IA, mas uma pausa temporária na construção de modelos maiores e imprevisíveis que competem com a inteligência humana”, continuou. “As taxas de espantosa impressão a que novas inovações e modelos poderosos de IA estão a ser desenvolvidos exigem definitivamente que os líderes tecnológicos e outros se juntem para construir medidas e protocolos de segurança”.