Travar novos lançamentos de IA

Numa carta aberta, mais de 1.100 ilustres tecnólogos alertaram para uma possível “perda de controlo da nossa civilização” para a IA não confirmada.

Por Lucas Mearian

Mais de 1.100 ilustres tecnólogos, líderes e cientistas lançaram um aviso aos laboratórios que realizam experiências em larga escala com inteligência artificial (IA) mais poderosa do que o ChatGPT, dizendo que a tecnologia representa uma grave ameaça para a humanidade.

Numa carta aberta publicada pelo Future of Life Institute, uma organização sem fins lucrativos com a missão de reduzir os riscos catastróficos e existenciais globais para a humanidade, o cofundador da Apple, Steve Wozniak, e o CEO da Tesla e SpaceX, Elon Musk, juntaram-se a outros signatários para acordar que a IA representa “riscos profundos para a sociedade e a humanidade, como demonstrado por uma investigação extensiva e reconhecido pelos melhores laboratórios de IA”.

A petição apelava a uma pausa de seis meses em atualizações de plataformas generativas de IA, tais como GPT-4, que é o modelo de linguagem grande (LLM) que alimenta o popular ChatGPT chatbot de processamento de linguagem natural. A carta, em parte, retratava um futuro distópico reminiscente daqueles criados por redes neurais artificiais em filmes de ficção científica, tais como The Terminator e The Matrix. A carta questionava, em parte, se a IA avançada poderia levar a uma “perda de controlo da nossa civilização”.

A missiva também adverte de perturbações políticas “especialmente à democracia” por parte da IA: os chatbots agindo como humanos poderiam inundar os meios de comunicação social e outras redes com propaganda e mentiras. E adverte que a IA poderia “automatizar todos os trabalhos, incluindo os que se realizam”.

A carta apelava aos líderes cívicos – não à comunidade tecnológica – para se encarregarem das decisões em torno da amplitude das implantações de IA.

Os decisores políticos deveriam trabalhar com a comunidade de IA para acelerar drasticamente o desenvolvimento de sistemas robustos de administração de IA que, no mínimo, incluam novas autoridades reguladoras de IA, supervisão, e acompanhamento de sistemas de IA altamente capazes e grandes pools de capacidade computacional. A carta também sugere que os sistemas de proveniência e de marcação de água sejam utilizados para ajudar a distinguir o conteúdo real do sintético e para rastrear fugas de modelos, juntamente com um ecossistema robusto de auditoria e certificação.

“Os sistemas de IA contemporâneos estão agora a tornar-se competitivos em termos humanos nas tarefas gerais”, diz a carta. “Devemos desenvolver mentes não humanas que possam eventualmente ultrapassar em número, ser mais espertas, obsoletas e substituir-nos? Deveríamos arriscar-nos a perder o controlo da nossa civilização? Tais decisões não devem ser delegadas a líderes tecnológicos não eleitos”.

(O governo do Reino Unido publicou um livro branco delineando planos para regulamentar a IA de finalidade geral, dizendo que “evitaria uma legislação pesada que poderia asfixiar a inovação”, e que, em vez disso, confiaria nas leis existentes).

Avivah Litan, vice-presidente e analista distinto da Gartner Research, disse que o aviso dos líderes tecnológicos é evidente, e atualmente não existe tecnologia para assegurar a autenticidade ou precisão da informação que está a ser gerada por ferramentas de IA como o GPT-4.

A maior preocupação, disse ela, é que a OpenAI já planeia lançar o GPT-4.5 dentro de seis meses, e o GPT-5 cerca de seis meses depois disso. “Portanto, suponho que essa é a urgência de seis meses mencionada na carta”, disse Litan. “Eles estão apenas a avançar a todo o vapor”.

A expectativa do GPT-5 é que seja uma inteligência geral artificial, ou AGI, onde a IA se torne sensível e possa começar a pensar por si própria. Nessa altura, continua a crescer exponencialmente mais inteligente ao longo do tempo.

“Quando se chega ao AGI, é como o fim do jogo para os seres humanos, porque uma vez que a IA é tão inteligente como um humano, é tão inteligente como [Albert] Einstein, então uma vez que se torna tão inteligente como Einstein, torna-se tão inteligente como 100 Einsteins num ano”, disse Litan. “Aumenta completamente fora de controlo assim que se chega à AGI. Este é o grande medo. Nessa altura, os humanos não têm qualquer controlo. Está fora das nossas mãos”.

Anthony Aguirre, professor de física na UC Santa Cruz e vice-presidente executivo de Futuro da Vida, disse que só os próprios laboratórios sabem que cálculos estão a fazer.

“Mas a tendência é inconfundível”, disse ele numa resposta por e-mail à Computerworld. “Os cálculos de maior escala estão a aumentar de tamanho cerca de 2,5 vezes por ano. Os parâmetros do GPT-4 não foram divulgados pelo OpenAI, mas não há razão para pensar que esta tendência tenha parado ou mesmo abrandado”.

O Future of Life Institute argumentou que os laboratórios de IA estão fechados numa corrida descontrolada para desenvolver e implementar “mentes digitais cada vez mais poderosas que ninguém – nem mesmo os seus criadores – pode compreender, prever, ou controlar de forma fiável”.

Os signatários incluíam cientistas da DeepMind Technologies, um laboratório de pesquisa de IA britânico e a empresa mãe subsidiária do Google, a Alphabet. O Google anunciou recentemente o Bard, um chatbot de conversação baseado em IA que desenvolveu utilizando a família LaMDA de LLM.

Os LLM são algoritmos de aprendizagem profunda – programas informáticos para processamento de linguagem natural – que podem produzir respostas de tipo humano a questões. A tecnologia generativa de IA pode também produzir código informático, imagens, vídeo e som.

A Microsoft, que investiu mais de 10 mil milhões de dólares no ChatGPT e no OpenAI, criador do GPT-4, disse que não tinha comentários a fazer neste momento. O OpenAI e o Google também não responderam imediatamente a um pedido de comentários.

Jack Gold, analista principal da empresa de pesquisa da indústria J. Gold Associates, acredita que o maior risco é a formação dos LLM com preconceitos. Assim, por exemplo, um desenvolvedor poderia propositadamente treinar um modelo com preconceitos contra a “consciência”, ou contra o conservadorismo, ou torná-lo amigo do socialismo ou apoiar a supremacia branca.

“Estes são exemplos extremos, mas é certamente possível (e provável) que os modelos venham a ter preconceitos”, disse Gold numa resposta de e-mail à Computerworld. “Vejo isso como um maior risco a curto e médio prazo do que a perda de emprego – especialmente se assumirmos que o Gen AI é preciso e de confiança. Assim, a questão fundamental em torno da confiança no modelo é, penso eu, crucial para a forma de utilizar os resultados”.

Andrzej Arendt, CEO da consultoria de TI Cyber Geeks, disse que enquanto as ferramentas de IA generativas ainda não são capazes de fornecer software da mais alta qualidade como produto final por si só, “a sua assistência na geração de peças de código, configurações de sistema ou testes unitários pode acelerar significativamente o trabalho do programador.

“Irá tornar os programadores redundantes? Não necessariamente – em parte porque os resultados servidos por tais ferramentas não podem ser utilizados sem dúvida; a verificação do programador é necessária”, continuou Arendt. “De facto, as mudanças nos métodos de trabalho têm acompanhado os programadores desde o início da profissão. O trabalho dos programadores passará simplesmente a interagir, até certo ponto, com sistemas de IA”.

As maiores mudanças virão com a introdução de sistemas de IA em escala real, disse Arendt, o que pode ser comparado à revolução industrial no século XIX que substituiu uma economia baseada no artesanato, agricultura e manufatura.

“Com a IA, o salto tecnológico pode ser tão grande, se não maior. Neste momento, não podemos prever todas as consequências”, disse.

Vlad Tushkanov, cientista de dados líder na empresa de cibersegurança Kaspersky, com sede em Moscovo, disse que a integração de algoritmos LLM em mais serviços pode trazer novas ameaças. De facto, os tecnólogos de LLM, já estão a investigar ataques, tais como injecção rápida, que podem ser utilizados contra os LLM e os serviços que eles potenciam.

“Como a situação muda rapidamente, é difícil estimar o que irá acontecer a seguir e se estas peculiaridades de LLM acabam por ser o efeito secundário da sua imaturidade ou se são a sua vulnerabilidade inerente”, disse Tushkanov. “Contudo, as empresas poderão querer incluí-los nos seus modelos de ameaça quando planearem integrar LLM em aplicações voltadas para o consumidor”.

Dito isto, as tecnologias de LLM e AI são úteis e já automatizam uma enorme quantidade de trabalho que é necessário, mas não é agradável nem interessante para as pessoas fazerem. Os Chatbots, por exemplo, podem filtrar diariamente milhões de alertas, e-mails, prováveis páginas web de phishing e executáveis potencialmente maliciosos.

“Este volume de trabalho seria impossível de fazer sem automatização”, disse Tushkanov. “…Apesar de todos os avanços e tecnologias de ponta, existe ainda uma escassez aguda de talento em matéria de cibersegurança. Segundo estimativas, a indústria precisa de milhões de profissionais a mais, e neste campo muito criativo, não podemos desperdiçar as pessoas que temos em tarefas monótonas e repetitivas”.

A IA generativa e a aprendizagem de máquinas não substituirão todos os trabalhos de TI, incluindo as pessoas que combatem as ameaças da cibersegurança, disse Tushkanov. Soluções para essas ameaças estão a ser desenvolvidas num ambiente adversário, onde os cibercriminosos trabalham contra organizações para escapar à deteção.

“Isto torna muito difícil automatizá-las, porque os cibercriminosos adaptam-se a cada nova ferramenta e abordagem”, disse Tushkanov. “Também, com a precisão e qualidade da segurança cibernética são muito importantes, e neste momento os grandes modelos linguísticos são, por exemplo, propensos a alucinações (como mostram os nossos testes, as tarefas de segurança cibernética não são exceção)”.

O Instituto do Futuro da Vida disse na sua carta que com guardrails a humanidade pode desfrutar de um futuro próspero com IA.

“Engenhe estes sistemas para o claro benefício de todos, e dê à sociedade uma oportunidade de se adaptar”, disse a carta. “A sociedade fez uma pausa sobre outras tecnologias com efeitos potencialmente catastróficos para a sociedade. Podemos fazer isso aqui. Vamos desfrutar de um longo verão AI, não nos precipitarmos para uma queda”.




Deixe um comentário

O seu email não será publicado