Autoridade norte-americana para o comércio (FTC) investiga o ChatGPT

A FCT (FTC) está a investigar se o ChatGPT pode prejudicar as pessoas ao publicar informações falsas sobre elas.

Por Heinrich Vaske

A OpenAI, criadora do bot de IA ChatGPT, está a ser alvo de pressões. A principal autoridade comercial dos Estados Unidos, a Federal Trade Commission (FTC), lançou uma investigação. Suspeita-se que o ChatGPT possa prejudicar as pessoas pelo facto de o chatbot de conversação publicar informações falsas sobre elas. Se tal se confirmar, a popular aplicação ficará provavelmente seriamente ameaçada.

O Wall Street Journal refere que a OpenAI foi notificada na quinta-feira (13 de julho de 2023). A investigação quer saber se o chatbot da OpenAI “se envolveu em práticas desleais ou enganosas que podem prejudicar os consumidores”. A empresa deve agora explicar em detalhes que medidas tomaram para garantir que seu Large Language Model (LLM) não possa gerar “declarações falsas, enganosas ou depreciativas sobre pessoas reais”.

A FTC critica a falta de transparência nos dados de formação do ChatGPT

A investigação está a ser conduzida pela Presidente do FTC, Lina Khan. Testemunhando perante o Comité Judicial da Câmara, expressou preocupação de que o ChatGPT e outros aplicações movidos a IA não tivessem controlo sobre os dados que analisariam. “Ouvimos dizer que as consultas revelaram informações confidenciais sobre as pessoas “, disse Khan. Os utilizadores receberam calúnias, declarações difamatórias e mentiras como resultados das consultas.

Na intimação civil, a agência fez perguntas pormenorizadas à OpenAI sobre as práticas de segurança de dados que utilizava. Outros tópicos incluíam os esforços de marketing da empresa, as suas práticas de formação de modelos de IA e o tratamento dos dados pessoais dos utilizadores.

Os críticos do campo conservador consideram o processo “único” e falam de um novo degrau na escada da escalada. Na sua opinião, a agência governamental está a levar a cabo uma tecnologia promissora, que está apenas a surgir, numa fase demasiado precoce: “Se o ChatGPT disser algo de errado sobre alguém e puder ter prejudicado a sua reputação, isso cai sob a jurisdição da FTC? Não me parece que isso seja claro”, queixa-se Adam Kovacevich, fundador da associação comercial Chamber of Progress, por exemplo.

“O Bot não cumpre uma única diretriz para a utilização segura da IA”.

Na sua queixa, a FTC chamou ao ChatGPT “tendencioso, enganador e um risco para a privacidade e segurança pública”. Dizia que o bot não cumpria uma única diretriz para o uso seguro da IA. A autoridade está, portanto, insistindo nos seus amplos poderes para combater práticas comerciais injustas que podem prejudicar os consumidores. No entanto, o diretor da agência, Khan, tem a fama nos EUA de, por vezes, exagerar. Ainda há poucos dias, um juiz federal norte-americano colocou-a no seu lugar, quando a tentativa da FTC de impedir a aquisição da Activision Blizzard pela Microsoft foi anulada.

A presidente da FTC, Lina Khan, inicia uma investigação contra a OpenAI porque o ChatGPT pode prejudicar as pessoas.
A presidente da FTC, Lina Khan, iniciou uma investigação contra a OpenAI porque o ChatGPT pode prejudicar as pessoas.

Numa audição perante a Câmara dos Representantes, Khan foi também criticada por a sua agência ter examinado com demasiada atenção os regulamentos de proteção de dados do Twitter. Os republicanos consideram que se trata de uma tentativa dos liberais de colocar obstáculos ao serviço de microblogging adquirido por Elon Musk. Musk tinha anunciado que iria flexibilizar as diretrizes de controlo de conteúdos e permitir novamente uma maior “liberdade de expressão” no Twitter. Convidou também o antigo Presidente Donald Trump e outros ativistas conservadores a regressar à plataforma.

O governo dos EUA também está a analisar a IA generativa.

Independentemente do último impulso da FTC, a administração Biden está a considerar se as ferramentas de IA, como o ChatGPT, precisam de ser mais rigorosamente controladas ou regulamentadas. O Gabinete de Política Científica e Tecnológica da Casa Branca, por exemplo, está a analisar os prós e os contras da IA. Por exemplo, o esperado acesso mais fácil aos serviços governamentais é visto como positivo, enquanto as possibilidades alargadas para os hackers e as decisões por vezes discriminatórias dos sistemas de IA são vistas como críticas.

Democratas e republicanos declararam, entretanto, a regulamentação da IA uma questão prioritária para o Congresso. Pretendem evitar que os eleitores sejam manipulados com desinformação ou que as minorias sejam discriminadas. Os políticos norte-americanos veem outros riscos na possibilidade de novos crimes financeiros sofisticados e na disseminação de fotografias e vídeos “deepfake”. E, por último, está também em causa a economia dos EUA no seu todo: podem estar em causa milhões de postos de trabalho.

A regulamentação da IA pode abrandar a economia dos EUA

Ainda não se vislumbram novas leis ou medidas regulamentares, porque os políticos são extremamente cautelosos. Uma intervenção excessiva significaria um abrandamento do ritmo da inovação e, consequentemente, do crescimento económico nos EUA. Atualmente, o país está a lutar com a China pelo domínio do mercado das ferramentas de IA.

O cofundador da OpenAI, Sam Altman, tweetou que queria apoiar a investigação da FTC. No entanto, manifestou o seu desapontamento pelo facto de os documentos da investigação terem aparentemente sido divulgados ao público. Isto não contribui exatamente para criar confiança.

O próprio inventor do ChatGPT tinha defendido recentemente um maior controlo estatal do desenvolvimento da IA. Em maio, Altman solicitou ao Congresso dos EUA a criação de normas de licenciamento e segurança para os sistemas avançados de IA. “Compreendemos que as pessoas estão preocupadas com a forma como o nosso modo de vida pode ser alterado pela IA generativa. Nós também estamos”, afirmou Altman numa audição da subcomissão do Senado. “Se algo correr mal com esta tecnologia, pode ser fatal.”




Deixe um comentário

O seu email não será publicado