Depois do OpenAI e Google, a Meta lançou também o seu Large Language Model Meta AI (LLaMa). O que a empresa de Zuckerberg não queria: o LLaMa é acessível a todos.

Por Heinrich Vaske
A Meta anunciou o seu Large Language Model Meta AI para entrar na corrida contra o GPT do OpenAI (= Generative Pretrained Transformer) e o LaMDA do Google. O GPT é a base do ChatGPT, que por sua vez foi licenciado pela Microsoft e integrado em produtos como o motor de busca Bing. O Google tinha respondido um pouco precipitadamente com o LaMDA, que dá vida ao Bard, rival do ChatGPT.
A Meta obviamente não pretendia simplesmente copiar o GPT. O LLaMA é descrito como um modelo mais pequeno, de melhor desempenho, que supostamente consome menos poder computacional e, portanto, tem uma pegada ecológica menor, ao mesmo tempo que oferece um desempenho semelhante ao dos seus rivais. Além disso, o LLaMa foi concebido para ser aberto desde o início, ao contrário do seu rival proprietário do OpenAI, onde este atributo está, na melhor das hipóteses, no nome.
Quatro variantes do LLaMA
O LLaMA estará disponível em quatro variantes, com sete, 13, 33 ou 65 mil milhões de parâmetros. A quantidade de parâmetros com que uma IA é treinada determina de forma decisiva a qualidade das respostas. Por enquanto, a Meta pretende disponibilizar o modelo exclusivamente a instituições de investigação através de licenças não-comerciais. A intenção é equipar laboratórios, universidades e instituições governamentais, afirmou.
Como informa o Guardian, ao libertá-lo para o meio académico, a Meta removeu um dos grandes obstáculos na investigação da IA: o custo enormemente elevado da formação de um Modelo de Grandes Línguas (LLM). Embora o OpenAI nunca tenha quantificado o custo das corridas de formação GPT-3, os investigadores internos estimam que cada corrida de formação custa dezenas a doze milhões de dólares. Assim, ao libertarem o LLaMA, os investigadores podem poupar milhões e fazer avançar imensamente a investigação básica.
No entanto, a generosidade da Meta não é sem limites: “Para manter a integridade e evitar o uso indevido, o acesso ao modelo é concedido numa base casuística”, anunciou a empresa. Mas isso acabou agora depois de apenas alguns dias: no fim-de-semana passado, todo o modelo foi lançado por pessoas desconhecidas para qualquer pessoa descarregar no “4chan”.
LLaMA está disponível gratuitamente, mas apenas alguns o podem utilizar
O que isto significa ainda não é claro: o modelo na sua forma atual é em grande parte inutilizável para pessoas que não têm conhecimentos técnicos profundos e não têm acesso a um computador potente. Também não é claro se Meta tentará de alguma forma colocar o génio de volta na garrafa. O Guardian prevê, contudo, que o LLaMA se tornará rapidamente na IA mais utilizada no mundo.
Isto significa que modelos de IA gratuitos, tais como LLaMA ou o gerador de código aberto de código aberto da Stable Diffusion (Código de Código Aberto) da OpenAI (Dall-E), Microsoft e Google enfrentam agora ofertas comerciais de IA de estabilidade. Estes últimos investiram milhares de milhões em formação e melhoria dos seus modelos e querem atuar como guardiões – por outras palavras, ganhar dinheiro com eles. Se as empresas quiserem construir uma solução de IA baseada no ChatGPT, esta deve ter um preço.
Por outro lado, existem agora disponíveis publicamente modelos de IA equivalentes que teoricamente qualquer pessoa pode desenvolver. Também é provável que se faça dinheiro aqui – por exemplo, por criadores que oferecem os seus serviços neste ambiente, ou por fornecedores de clouds e infraestruturas. Mas os benefícios económicos são distribuídos por muitas cabeças; não existe uma autoridade de controlo no sentido de um guardião.
A abordagem comercial, baseada no controlo, tem o seu lado positivo: a OpenAI, a Microsoft e a Google não só fazem dinheiro, como também garantem que as suas ferramentas são utilizadas de forma responsável. Estas empresas prometem tomar todas as medidas necessárias para dificultar a vida aos spammers e hackers e assegurar que os pedidos e respostas sejam filtrados. Os utilizadores de Stability-AI ou LLaMA têm poucas probabilidades de cumprir, pelo que o conteúdo ofensivo ou manipulador de IA – em texto e imagens – poderá em breve inundar a web.