Europeus são os primeiros a controlar a IA, os EUA seguem-nos

A União Europeia está a dar os últimos retoques na legislação que responsabilizaria as empresas que criam plataformas de IA generativas, como o ChatGPT, que podem obter o conteúdo que geram a partir de fontes não identificadas.

Por Lucas Mearian com João Miguel Mesquita

Um conjunto de regras proposto pela União Europeia iria, entre outras coisas, exigir que os fabricantes de ferramentas de IA generativa, como o ChatGPT, divulgassem qualquer material protegido por direitos de autor utilizado pelas plataformas tecnológicas para criar conteúdos de qualquer tipo.

Um novo projeto de legislação do Parlamento Europeu, cuja cópia foi obtida pelo The Wall Street Journal, permitiria que os criadores originais de conteúdos utilizados por aplicações de IA generativa partilhassem quaisquer lucros daí resultantes.

A “Lei da Inteligência Artificial” da União Europeia (Lei da IA) é a primeira do género de um conjunto de nações ocidentais. A legislação proposta baseia-se em grande medida nas regras existentes, como o Regulamento Geral sobre a Proteção de Dados (RGPD), a Lei dos Serviços Digitais e a Lei dos Mercados Digitais. A Lei da IA foi originalmente proposta pela Comissão Europeia em abril de 2021.

As disposições do projeto de lei também exigem que os modelos de linguagem de grande porte (LLMs) por trás da tecnologia de IA generativa, como o GPT-4, sejam concebidos com salvaguardas adequadas contra a geração de conteúdos que violem as leis da UE; isso pode incluir pornografia infantil ou, em alguns países da UE, a negação do Holocausto, de acordo com o The Washington Post.

As violações da Lei da IA podem implicar multas até 30 milhões de euros ou 6% dos lucros globais, consoante o valor mais elevado.

“Para uma empresa como a Microsoft, que apoia a OpenAI, criadora do ChatGPT, isto pode significar uma multa de mais de 10 mil milhões de dólares se for detetada uma violação das regras”, refere um relatório da Reuters.

Mas a solução para manter a IA honesta não é fácil, de acordo com Avivah Litan, vice-presidente e analista distinta da Gartner Research. É provável que os criadores de LLM, como a OpenAI, sediada em São Francisco, e outros, tenham de desenvolver LLMs poderosos para verificar se os que foram treinados inicialmente não têm materiais protegidos por direitos de autor. É provável que os sistemas baseados em regras para filtrar materiais protegidos por direitos de autor sejam ineficazes, afirmou Liten.

Entretanto, a UE está ocupada a aperfeiçoar a sua Lei da IA e a adotar uma abordagem líder a nível mundial, disse Litan, ao criar regras que regem a utilização justa e gerida de riscos da IA no futuro.

Os reguladores devem considerar que os LLMs estão efetivamente a operar como uma caixa negra, disse, e é improvável que os algoritmos forneçam às organizações a transparência necessária para conduzir a avaliação de impacto de privacidade necessária. “Isto tem de ser resolvido”, disse Litan.

“É interessante notar que em um ponto a Lei de IA iria excluir a supervisão dos modelos de IA generativa, mas eles foram incluídos mais tarde”, disse Litan. “Os reguladores geralmente querem se mover com cuidado e metodicamente para não sufocar a inovação e criar regras duradouras que ajudem a atingir os objetivos de proteger as sociedades sem ser excessivamente prescritivo nos meios.”

No dia 1 de abril, a Itália tornou-se a primeira nação ocidental a proibir o desenvolvimento do ChatGPT devido a preocupações com a privacidade (embora tenha acabado de reverter essa decisão); a proibição inicial ocorreu depois de a aplicação de processamento de linguagem natural ter sofrido uma violação de dados que envolvia conversas de utilizadores e informações de pagamento. O ChatGPT é o popular chatbot criado pela OpenAI e apoiado por milhares de milhões de dólares da Microsoft.

No início deste mês, os governos dos EUA e da China anunciaram regulamentos relativos ao desenvolvimento da IA, algo que nenhum dos dois países tinha estabelecido até à data.

“Os EUA e a UE estão alinhados em termos de conceitos quando se trata de querer alcançar uma IA fiável, transparente e justa, mas as suas abordagens têm sido muito diferentes”, afirmou Litan.

Até agora, os EUA adotaram aquilo a que Litan chamou uma “abordagem muito distribuída à gestão do risco da IA”, e ainda não criaram novos regulamentos ou infraestruturas regulamentares. Os EUA concentraram-se em diretrizes e num quadro de gestão de riscos de IA.

Em janeiro, o Instituto Nacional de Normas e Tecnologia (NIST), note americano, publicou o Quadro de Gestão da Inteligência Artificial. Em fevereiro, a Casa Branca emitiu uma ordem executiva que dá instruções às agências federais para garantirem que a sua utilização da IA promove a equidade e os direitos civis.

O Congresso dos EUA está a considerar a lei federal Algorithmic Accountability Act, que, se aprovada, exigirá que os empregadores realizem uma avaliação do impacto de qualquer sistema automatizado de tomada de decisões que tenha um efeito significativo no acesso, nos termos ou na disponibilidade de emprego de um indivíduo.

A Administração Nacional de Telecomunicações e Informação (NTIA), um ramo do Departamento de Comércio dos EUA, também emitiu um pedido público de comentários sobre as políticas que melhor responsabilizariam os sistemas de IA.

Os estados e os municípios também estão a entrar em ação, procurando restrições locais à utilização de bots baseados em IA para encontrar, selecionar, entrevistar e contratar candidatos a emprego devido a questões de privacidade e preconceito. Alguns estados já adotaram leis.

A Microsoft e a Alphabet, proprietária da Google, têm estado numa corrida para levar os chatbots de IA generativa às empresas e aos consumidores. Os motores de IA generativa mais avançados podem criar o seu próprio conteúdo com base nas instruções ou nos dados do utilizador. Assim, por exemplo, a IA pode ser encarregada de criar campanhas de marketing ou publicitárias, escrever ensaios e gerar imagens fotográficas e vídeos realistas.

A Lei da IA da UE inclui um sistema de classificação que determina o nível de risco que uma tecnologia de IA pode representar para a saúde e segurança ou para os direitos fundamentais de uma pessoa. O quadro inclui quatro níveis de risco: inaceitável, elevado, limitado e mínimo, de acordo com o Fórum Económico Mundial.

De acordo com a Gartner, as questões relacionadas com as plataformas de IA generativa a que os reguladores devem estar atentos incluem:

  • Os modelos de GPT não são explicáveis: Os resultados dos modelos são imprevisíveis; nem mesmo os fornecedores de modelos compreendem tudo sobre o seu funcionamento interno. A explicabilidade ou interpretabilidade são pré-requisitos para a transparência do modelo.
  • Respostas inexatas e fabricadas: Para reduzir os riscos de imprecisões e alucinações, os resultados gerados pelo ChatGPT/GenAI devem ser avaliados quanto à exatidão, adequação e utilidade real antes de serem aceites.
  • Potencial comprometimento de dados confidenciais: Não há garantias verificáveis de governação e proteção de dados que assegurem que as informações confidenciais da empresa – por exemplo, sob a forma de prompts armazenados – não são comprometidas.
  • Enviesamento de modelos e resultados: Os criadores e utilizadores de modelos devem ter políticas ou controlos para detetar resultados tendenciosos e lidar com eles de acordo com a política da empresa e quaisquer requisitos legais relevantes.
  • Riscos de propriedade intelectual (PI) e de direitos de autor: Os criadores de modelos e os utilizadores devem analisar os seus resultados antes de os utilizarem para garantir que não infringem os direitos de autor ou de propriedade intelectual, e monitorizar ativamente as alterações às leis de direitos de autor que se aplicam ao ChatGPT/GenAI. Os utilizadores estão agora por sua conta quando se trata de filtrar materiais protegidos por direitos de autor nos resultados do ChatGPT.
  • Riscos cibernéticos e de fraude: Os sistemas devem ser reforçados para tentar garantir que os criminosos não os possam utilizar para ataques cibernéticos e de fraude.

Lançado pela OpenAI em novembro, o ChatGPT tornou-se imediatamente viral e teve 1 milhão de utilizadores apenas nos primeiros cinco dias, devido à forma sofisticada como gera respostas aprofundadas e semelhantes às respostas humanas às perguntas. Atualmente, o site do ChatGPT recebe cerca de mil milhões de visitantes mensais, com cerca de 100 milhões de utilizadores ativos, de acordo com a empresa de testes de sites Tooltester.

Embora as respostas do chatbot possam parecer humanas, o ChatGPT não é senciente – é um motor de previsão da palavra seguinte, segundo Dan Diasio, líder global de consultoria em inteligência artificial da Ernst & Young. Com isto em mente, aconselha cautela no seu uso.

Mas à medida que a tecnologia de IA avança a uma velocidade vertiginosa, prevê-se que um algoritmo mais sofisticado esteja no horizonte: a inteligência artificial geral, que poderá pensar por si própria e tornar-se exponencialmente mais inteligente ao longo do tempo.

No início deste mês, uma carta aberta de milhares de personalidades do mundo da tecnologia apelou à suspensão do desenvolvimento da tecnologia de IA generativa, por recear que a capacidade de a controlar se perca se avançar demasiado. A carta reuniu mais de 27.000 signatários, incluindo o co-fundador da Apple, Steve Wozniak. A carta, publicada pelo Future of Life Institute, chama a atenção para o algoritmo GPT-4, recentemente anunciado pelo OpenAI Lab, sediado em São Francisco, afirmando que a empresa deve suspender o seu desenvolvimento até que existam normas de controlo.

Embora a IA já exista há décadas, “atingiu novas capacidades alimentadas pelo poder da computação”, afirmou Thierry Breton, Comissário Europeu para o Mercado Interno, numa declaração em 2021. A Lei da Inteligência Artificial, disse, foi criada para garantir que “a IA na Europa respeite os nossos valores e regras e aproveite o potencial da IA para uso industrial”.




Deixe um comentário

O seu email não será publicado