Sam Altman, CEO da OpenAI, amortece expectativas demasiado elevadas para o desenvolvimento futuro da IA. Toda a especulação selvagem sobre o GPT-4 é um disparate completamente exagerado, diz.

Por Martin BayerMartin
O GPT-4 sairá quando o modelo linguístico for seguro e fiável, disse Altman numa entrevista ao StrictlyVC, um serviço noticioso que cobre o cenário de capital de risco em Silicon Valley. Não existem linhas de tempo concretas até à data, acrescentou ele. O gestor quer desmascarar os rumores de que o GPT-4 irá derrotar todos os superlativos da IA, até e incluindo a inteligência semelhante à humana.
A versão atual GPT-3, ou melhor, a variante alargada 3.5, está atualmente a causar muito furor como ChatGPT. O modelo AI pode criar uma grande variedade de conteúdos em resposta a instruções simples escritas em linguagem natural, desde textos a código de software até à saída de voz de um assistente doméstico inteligente.
Estas possibilidades estão aparentemente a alimentar a imaginação sobre as capacidades do seu sucessor. Alegadamente, o GPT-4 será treinado com 100 triliões de parâmetros e será capaz de escrever livros inteiros. Em comparação, o seu predecessor GPT-3 foi treinado utilizando 175 mil milhões de pontos de dados.
“As pessoas estão a implorar para ficarem desapontadas”
“Isto é tudo um completo disparate”, disse o líder da OpenAI. O moinho de rumores GPT-4 é simplesmente ridículo, disse ele. “Não sei de onde vem tudo isto”, disse o executivo. “As pessoas estão a implorar para ficarem desapontadas e ficarão”. O OpenAI não tinha desenvolvido nenhuma Inteligência geral artificial real que abordasse as capacidades humanas, como muitos aparentemente acreditavam.
No entanto, Altman deu a entender que o OpenAI estava a trabalhar em modelos de IA que também podiam criar conteúdos de vídeo. “Isso virá”, disse o gestor, mas sem prever especificamente quando isso acontecerá. Outras empresas como a Google e a Meta -mãe do Facebook – estão também a trabalhar nas funcionalidades correspondentes para as suas soluções de IA.
Regras diferentes para a utilização de IA
Altman também tomou uma posição contra os críticos na entrevista. Tendo em conta as capacidades do ChatGPT, as chamadas tinham aumentado mais alto para uma regulação mais rigorosa da utilização de IA, especialmente porque mesmo os modelos OpenAI não são imunes à falsificação por conteúdo racista ou sexista. Altman, no entanto, apelou para que não se apertassem demasiado as barreiras de proteção. Se quiser modelos absolutamente corretos, pode obtê-los. Mas aqueles que querem ser mais criativos com a IA e também aceitar coisas com as quais algumas pessoas possam não se sentir confortáveis, também deveriam ter essas opções. “Penso que haverá diferentes sistemas de regras com base nos valores de cada um”.
Sobre a discussão sobre o uso indevido do ChatGPT para fazer batota nas escolas e universidades com documentos gerados artificialmente, por exemplo, Altman disse que se tem simplesmente de aceitar as novas possibilidades. Talvez os professores pudessem ser ajudados a reconhecer melhor os conteúdos que vieram de sistemas semelhantes ao GPT. Mas haverá sempre maneiras de os enganar, disse ele. “Vivemos simplesmente num novo mundo agora”, declarou o gestor. “Os textos gerados automaticamente são algo a que todos temos de nos habituar, e isso é uma coisa boa”. Altman compara o desenvolvimento com o advento das calculadoras de bolso. Afinal, todos se habituaram a eles e os testes nas aulas de matemática foram alterados em conformidade.