GPT: Um truque de alta tecnologia ou a primeira IA real para uso diário?

O serviço beta ChatGPT do OpenAI baseado na base de dados de conteúdo GPT-3 é surpreendente com as suas conversas de tipo humano, mas a tecnologia não é tão profunda como parece – ainda.

Por Galen Gruman

Uma semana após o lançamento do ChatGPT, a 30 de novembro de 2022, a ferramenta de conversação alimentada por IA foi a conversa da tribo mediática, fascinando os primeiros utilizadores com as suas capacidades de conversação e até mesmo a criatividade. Em breve, os entusiastas exclamaram, não precisaremos de pessoas para escrever cópias de marketing, anúncios, ensaios, relatórios, ou praticamente nada mais do que os relatórios científicos mais especializados. E a IA será capaz de lidar com todas as nossas chamadas de serviço ao cliente, marcação de compromissos, e outras conversas de rotina.

Não tão depressa! As minhas próprias experiências com a tecnologia subjacente sugerem que temos um caminho a percorrer antes de lá chegarmos.

Ainda assim, o que é diferente no ChatGPT versus os anteriores wunderkinds de IA é que não são apenas os meios tecnológicos e empresariais que estão a prestar atenção: As pessoas normais também estão.

Um professor amigo perguntou-me apenas uma semana após a estreia do ChatGPT como é que os professores serão capazes de detetar estudantes que tenham IA a escrever os seus trabalhos para eles. Os esforços de policiamento da Wikipédia e da web são suficientemente duros, mas uma ferramenta de IA que escreva trabalhos “originais” tornaria os ensaios e relatórios dos estudantes sem sentido como avaliadores da sua aprendizagem.

(A mudança para apresentações orais com uma componente de perguntas e respostas resolveria esse problema, uma vez que os estudantes teriam de demonstrar ao vivo e sem ajuda a sua compreensão real. Claro que, atualmente, as escolas não dão aos professores o tempo necessário para esse longo processo de exames).

O que é o ChatGPT – e o GPT-3?

O ChatGPT é o último esforço da Fundação OpenAI (uma empresa de investigação apoiada pela Microsoft, pelo cofundador do LinkedIn Reid Hoffman, e pela empresa VC Khosla Ventures) para criar sistemas de linguagem natural que possam não só aceder à informação, mas também agregá-la, sintetizá-la, e escrevê-la como um ser humano faria. Utiliza a base de dados e o motor Generative Pretrained Transformer 3 (GPT-3) do OpenAI, que contém milhões de artigos que o motor analisou para poder “compreender” as relações entre conceitos e as suas expressões, bem como os significados desses conceitos, em texto em linguagem natural. OpenAI disse que o GPT-3 pode processar modelos em linguagem natural com 175 mil milhões de parâmetros – basta pensar nisso!

O GPT-3 não é novo, mas o OpenAI está cada vez mais a abri-lo a utilizadores externos, para ajudar o auto-treino GPT-3 “observando” como a tecnologia é utilizada e, como importante, corrigida pelos humanos. GPT-3 não é também o único jogo de IA de língua natural na cidade, mesmo que receba muita atenção. Como James Kobielus escreveu para o nosso site irmão, InfoWorld, a Microsoft tem o seu DeepSpeed e o Google o seu Switch Transformer, ambos podem processar 1 bilião ou mais de parâmetros (fazendo com que o GPT-3 pareça primitivo por comparação).

Como vimos com vários sistemas de IA, o GPT-3 tem algumas fraquezas críticas que se perdem na excitação do que faz a primeira vaga de serviços baseados no GPT – os mesmos tipos de fraquezas predominantes na escrita humana, mas com menos filtros e autocensura: racismo, sexismo, outros preconceitos ofensivos, bem como mentiras, motivos ocultos, e outras “notícias falsas”. Ou seja, pode e gera “conteúdo tóxico”. A equipa da OpenAI compreende muito bem este risco: Em 2019, desativou o acesso público ao sistema GPT-2 predecessor para prevenir o uso malicioso.

Ainda assim, é surpreendente ler o que o GPT-3 pode gerar. A um nível, o texto parece muito humano e passaria facilmente no teste de Turing, o que significa que uma pessoa não podia dizer se era escrito por máquina ou por humano. Mas não é preciso cavar muito fundo para ver que a sua capacidade verdadeiramente espantosa de escrever frases em inglês natural não significa que saiba realmente do que está a falar.

Mãos à obra com GPT-3: Não escavar muito fundo

No início deste ano, passei algum tempo com a ferramenta Copysmith.AI da Copysmith, um dos vários geradores de conteúdos que utilizam o GPT-3. O meu objectivo era ver se a ferramenta poderia complementar os escritores humanos da empresa mãe da Computerworld, Foundry, ajudando a escrever posts sociais, gerando possíveis ângulos de história para os repórteres estagiários, e talvez até resumindo comunicados de imprensa básicos enquanto os destilava, semelhante à forma como existem geradores de conteúdo para escrever histórias básicas, fórmulas sobre localização e intensidade de terramotos, resultados de stocks, e pontuações desportivas.

Embora os executivos da Copysmith me tenham dito que o conteúdo da ferramenta se destina a ser sugestivo – um ponto de partida para os escritores menos qualificados explorarem tópicos e redação – o marketing da Copysmith destina-se claramente às pessoas que produzem websites para fornecer texto suficientemente autoritário para ser indexado pelo Google Search e aumentar as probabilidades de aparecer nos resultados da pesquisa, bem como escrever o maior número possível de variações de texto de promoção social para utilização na vasta arena das redes sociais. Este tipo de texto é considerado essencial no mundo do comércio eletrónico e dos influenciadores, que têm poucos escritores qualificados.

O OpenAI restringe o trabalho de terceiros, como o Copysmith, apenas com trechos de texto, o que naturalmente reduz a carga no motor GPT-3 do OpenAI, mas também limita o esforço requerido desse motor. (Os geradores de conteúdo baseados em IA são tipicamente limitados a conceitos iniciais escritos em 1.000 caracteres ou menos, o que é aproximadamente 150 a 200 palavras, ou um ou dois parágrafos).

Mas mesmo esse alvo mais simples expôs porque é que o GPT-3 ainda não é uma ameaça para os escritores profissionais, mas poderia ser utilizado em alguns casos básicos. Como é frequentemente o caso nas tecnologias fantásticas, o futuro está mais longe e mais próximo do que parece – depende apenas do aspeto específico para o qual se está a olhar.

Onde o GPT-3 se saiu bem nos meus testes do Copysmith.AI foi ao reescrever pequenos pedaços de texto, tais como pegar no título e primeiro parágrafo de uma história para gerar múltiplos trechos para uso em promoções sociais ou slides de marketing. Se esse texto-fonte for claro e evitar trocas linguísticas (tais como vários “mas” seguidos), geralmente Copysmith.AI gerou texto utilizável. Por vezes, os seus resumos eram demasiado densos, tornando difícil analisar múltiplos atributos num parágrafo, ou simplificados em excesso, removendo as importantes nuances ou subcomponentes.

Quanto mais especializados eram os termos e conceitos no texto original, menos Copysmith.AI tentava ser criativo na sua apresentação. Embora isso se deva ao facto de não ter texto relacionado com alternativas suficientes para ser utilizado na reformulação, o resultado final foi que o sistema tinha menos probabilidades de alterar o significado.

Mas “menos provável” não significa “incapaz”. Nalguns casos, entendeu mal o significado dos termos e assim criou um texto impreciso. Um exemplo: “Apoio de nível sénior pode exigir custos adicionais” tornou-se “os executivos sénior exigem salários mais elevados” – o que pode ser verdade, mas não era o que o texto significava.

Problemas como este apontam para o facto de o GPT-3 ter criado mal o conteúdo baseado numa pergunta ou conceito, em vez de apenas tentar reescrevê-lo ou resumi-lo. Não compreende intenção (objetivo), fluxo, ou proveniência. Como resultado, obtém aldeias Potemkin, que parecem bem vistas de um comboio que passa, mas não resistem ao escrutínio quando se chega às suas portas.

Como exemplo de não compreender a intenção, Copysmith.AI promoveu o uso de Chromebooks quando lhe foi pedido para gerar uma proposta de história sobre a compra de PC Windows, dando muitas razões para escolher Chromebooks em vez de PC, mas ignorando o foco do texto de origem nos PC. Quando voltei a fazer essa consulta, recebi uma proposta totalmente diferente, desta vez propondo uma secção sobre tecnologias específicas (e sem importância), seguida de uma secção sobre alternativas ao PC. (Parece que o Copywriter.AI não quer que os leitores comprem PC com o Windows!) Numa terceira rodada da mesma consulta, decidiu concentrar-se no dilema das cadeias de abastecimento das pequenas empresas, que não tinham qualquer ligação com o tema da consulta original.

Fez o mesmo contexto de sequestro nos meus outros testes também. Sem uma compreensão do que estava a tentar realizar (um guia do comprador para PC Windows, que pensei ser claro ao usar essa frase na minha consulta), o GPT-3 (via Copysmith.AI) apenas procurou conceitos que se correlacionassem ou pelo menos se relacionassem de alguma forma com PC e propô-los.

Faltava também um fluxo natural de escrita – narração de histórias, com uma tese e uma viagem de apoio. Quando utilizei uma ferramenta Copysmith.AI para gerar conteúdo baseado nas suas sugestões de esboço, cada segmento fazia em grande parte sentido. Mas, enfiados juntos, tornaram-se bastante aleatórios. Não havia fluxo de histórias, nenhum segmento sendo seguido. Se estiver a escrever um parágrafo ou dois para um site de comércio eletrónico sobre, digamos, os benefícios dos ovos ou como cuidar do ferro fundido, esta questão não surgirá. Mas para a minha professora amiga preocupada com a IA a escrever os trabalhos dos seus alunos para eles, suspeito que a falta de uma história real virá à tona – por isso os professores serão capazes de detetar trabalhos de alunos gerados pela IA, embora isto exija mais esforço do que a deteção de cortar e colar a partir de websites. A falta de citações será um sinal para investigar mais a fundo.

A proveniência é a fonte: quem escreveu o material de origem em que o texto gerado se baseia (para que se possa avaliar a credibilidade, perícia e potencial enviesamento), onde estão e trabalham (para saber com quem estão afiliados e em que região operam, também para compreender potencial enviesamento e mentalidade), e quando o escreveram (para saber se pode estar desatualizado). O OpenAI não expõe essa proveniência a terceiros como o Copysmith, pelo que o texto resultante não pode ser confiado para além de factos bem conhecidos. O suficiente do texto nos meus testes continha pistas de fontes questionáveis em um ou mais destes aspetos que pude ver que o texto gerado era uma miscelânea que não suportaria um verdadeiro escrutínio.

Por exemplo, os dados dos inquéritos não foram todos atribuídos, mas onde pude encontrar os originais através de pesquisas na web, vi rapidamente que podiam estar anos separados ou sobre diferentes (mesmo que de alguma forma relacionados) tópicos e populações de inquéritos. Escolher e escolher os seus factos para criar a narrativa desejada é um velho truque de déspotas, de “falsos provedores de notícias”, e de outros manipuladores. Não é o que a IA deveria estar a fazer.

No mínimo, o texto gerado pelo GPT deve ligar-se às suas fontes para que possa ter a certeza que os componentes da amálgama são significativos, dignos de confiança, e adequadamente relacionados, e não apenas escritos decentemente. O OpenAI optou até agora por não revelar o que a sua base de dados contém para gerar o conteúdo que fornece em ferramentas como o ChatGPT e o Copysmith.AI.

Resumindo: Se utilizar geradores de conteúdo baseados em GPT, necessitará de escritores e editores profissionais para, pelo menos, validar os resultados, e mais provavelmente para fazer o levantamento pesado enquanto as ferramentas de IA servem como inputs adicionais.

A IA é o futuro, mas esse futuro ainda está a desenrolar-se

Não me refiro ao Copysmith.AI – é apenas um front end para o GPT-3, como o ChatGPT e muitas outras ferramentas de conteúdo em linguagem natural. E não pretendo implicar com o GPT-3 – embora seja uma forte prova de conceito, ainda está muito em beta e estará em evolução durante anos. E nem sequer pretendo implicar com a IA – apesar de décadas de excesso de hipismo, a realidade é que a IA continua a evoluir e está a encontrar papéis úteis em cada vez mais sistemas e processos.

Em muitos casos, como o ChatGPT, a IA ainda é um truque de salão que nos cativará até que o próximo truque apareça. Em alguns casos, é uma tecnologia útil que pode aumentar tanto as actividades humanas como as das máquinas através de uma análise incrivelmente rápida de enormes volumes de dados para propor uma reacção conhecida. Pode ver a promessa disso no Copysmith.AI alimentado por GPT mesmo quando se experimenta a realidade da aldeia Potemkin de hoje.

A um nível básico, a IA é a correspondência e correlação de padrões feita a velocidades incríveis que permitem reações rápidas – mais rápidas do que o que as pessoas podem fazer em alguns casos, como detetar ciberataques e melhorar muitas atividades empresariais. Os algoritmos subjacentes e os modelos de formação que formam os motores da IA tentam impor algum sentido à informação e aos padrões derivados, bem como as consequentes reações.

A IA não se trata simplesmente de conhecimento ou informação, embora quanto mais informação se possa correlacionar e avaliar com sucesso, melhor a IA pode funcionar. A IA também não é inteligente como os seres humanos, gatos, cães, polvos, e tantas outras criaturas no nosso mundo. Sabedoria, intuição, perspicácia, julgamento, saltos de imaginação, e um propósito mais elevado faltam na IA, e será necessário muito mais do que um bilião de parâmetros para obter tais atributos de sentimento.

Aproveite o ChatGPT. Aprenda tudo para utilização nas suas iniciativas tecnológicas empresariais. Mas não pense por um momento que a mente humana tenha sido suplantada.




Deixe um comentário

O seu email não será publicado