Governos debatem-se com regulamentação para controlar riscos da IA

À medida que a IA generativa revoluciona a tecnologia, governos de todo o mundo estão a tentar criar regulamentos que incentivem os seus benefícios e minimizem os riscos, como a parcialidade e a desinformação.

Por Charlotte Trueman

Desde que a IA generativa explodiu na consciência pública com o lançamento do ChatGPT no final do ano passado, os apelos à regulamentação da tecnologia para a impedir de causar danos indevidos aumentaram a pique em todo o mundo. Os riscos são elevados – ainda na semana passada, os líderes tecnológicos assinaram uma carta pública aberta dizendo que, se os responsáveis governamentais se enganarem, a consequência poderá ser a extinção da raça humana.

Embora a maioria dos consumidores esteja apenas a divertir-se a testar os limites dos grandes modelos linguísticos como o ChatGPT, têm circulado várias histórias preocupantes sobre a tecnologia que inventa supostos factos (também conhecidos como “alucinações”) e faz sugestões inapropriadas aos utilizadores, como quando uma versão do Bing com IA disse a um repórter do New York Times para se divorciar do seu cônjuge.

Os especialistas da indústria tecnológica e os juristas referem também uma série de outras preocupações, incluindo a capacidade da IA generativa para melhorar os ataques de agentes de ameaças às defesas de cibersegurança, a possibilidade de violações dos direitos de autor e da privacidade dos dados – uma vez que os modelos linguísticos de grande dimensão são treinados com base em todo o tipo de informação – e o potencial de discriminação, uma vez que os seres humanos codificam os seus próprios preconceitos nos algoritmos.

Possivelmente, a maior área de preocupação é o facto de os programas de IA generativa serem essencialmente de autoaprendizagem, demonstrando uma capacidade crescente à medida que ingerem dados, e de os seus criadores não saberem exatamente o que está a acontecer neles. Isto pode significar, como afirmou Geoffrey Hinton, ex-líder de IA da Google, que a humanidade pode ser apenas uma fase passageira na evolução da inteligência e que os sistemas de IA podem desenvolver os seus próprios objetivos, que os humanos desconhecem.

Tudo isto levou os governos de todo o mundo a exigir regulamentação de proteção. Mas, tal como acontece com a maioria das regulamentações tecnológicas, raramente existe uma abordagem única para todos, com diferentes governos a procurarem regulamentar a IA generativa de uma forma que melhor se adapte à sua própria paisagem política.

Os países fazem os seus próprios regulamentos

“[Quando se trata de] questões tecnológicas, embora cada país seja livre para fazer suas próprias regras, no passado, o que vimos foi alguma forma de harmonização entre os EUA, a UE e a maioria dos países ocidentais”, disse Sophie Goossens, sócia do escritório de advocacia Reed Smith, especializada em questões de IA, direitos autorais e PI. “É raro ver legislação que contradiga completamente a legislação de outro país”.

Embora os detalhes da legislação apresentada por cada jurisdição possam diferir, há um tema abrangente que une todos os governos que até agora delinearam propostas: como os benefícios da IA podem ser realizados, minimizando os riscos que ela apresenta para a sociedade. De facto, os legisladores da UE e dos EUA estão a elaborar um código de conduta da IA para colmatar a lacuna até que qualquer legislação seja legalmente aprovada.

A IA generativa é um termo genérico para qualquer tipo de processo automatizado que utilize algoritmos para produzir, manipular ou sintetizar dados, muitas vezes sob a forma de imagens ou de texto legível por humanos. Chama-se generativo porque cria algo que não existia anteriormente. Não se trata de uma tecnologia nova, e as conversas em torno da regulamentação também não são novas.

A IA generativa já existe (pelo menos numa forma muito básica de chatbot) desde meados da década de 1960, quando um professor do MIT criou a ELIZA, uma aplicação programada para utilizar a correspondência de padrões e a metodologia de substituição de linguagem para emitir respostas concebidas para fazer com que os utilizadores sintam que estão a falar com um terapeuta. Mas o recente advento da IA generativa ao domínio público permitiu que pessoas que antes não tinham acesso à tecnologia criassem conteúdos sofisticados sobre praticamente qualquer tópico, com base em algumas instruções básicas.

À medida que as aplicações de IA generativa se tornam mais poderosas e prevalecentes, há uma pressão crescente para a regulamentação.

“O risco é definitivamente maior, porque agora estas empresas decidiram lançar ferramentas extremamente poderosas na Internet aberta para que todos as utilizem, e penso que existe definitivamente o risco de a tecnologia poder ser utilizada com más intenções”, afirmou Goossens.

Primeiros passos para uma legislação sobre IA

Embora as discussões da Comissão Europeia sobre um ato regulatório de IA tenham começado em 2019, o governo do Reino Unido foi um dos primeiros a anunciar suas intenções, publicando um livro branco em março deste ano que delineou cinco princípios que deseja que as empresas sigam: segurança, proteção e robustez; transparência e explicabilidade; justiça; responsabilidade e governança; e contestabilidade e reparação.

No entanto, num esforço para evitar o que chamou de “legislação pesada”, o governo do Reino Unido apelou aos organismos reguladores existentes para que utilizassem os regulamentos atuais para garantir que as aplicações de IA aderem às diretrizes, em vez de elaborarem novas leis.

Desde então, a Comissão Europeia publicou o primeiro projeto da sua Lei da IA, que foi adiada devido à necessidade de incluir disposições para regulamentar as aplicações de IA generativa mais recentes. O projeto de legislação inclui requisitos para que os modelos de IA generativa atenuem de forma razoável os riscos previsíveis para a saúde, a segurança, os direitos fundamentais, o ambiente, a democracia e o Estado de direito, com a participação de peritos independentes.

A legislação proposta pela UE proibiria a utilização da IA quando esta pudesse constituir uma ameaça para a segurança, os meios de subsistência ou os direitos das pessoas, com as estipulações relativas à utilização da inteligência artificial a tornarem-se menos restritivas com base no risco percebido que esta pode representar para quem entra em contacto com ela – por exemplo, a interação com um chatbot num contexto de serviço ao cliente seria considerada de baixo risco. Os sistemas de IA que apresentem riscos tão limitados e mínimos podem ser utilizados com poucos requisitos. Os sistemas de IA que apresentem níveis mais elevados de enviesamento ou risco, como os utilizados nos sistemas governamentais de classificação social e nos sistemas de identificação biométrica, não serão geralmente permitidos, com poucas exceções.

No entanto, mesmo antes de a legislação ter sido finalizada, o ChatGPT, em particular, já tinha sido alvo de escrutínio por parte de vários países europeus por possíveis violações da proteção de dados do RGPD. O regulador de dados italiano proibiu inicialmente o ChatGPT devido a alegadas violações de privacidade relacionadas com a recolha e o armazenamento de dados pessoais pelo chatbot, mas restabeleceu a utilização da tecnologia depois de a OpenAI, apoiada pela Microsoft e criadora do ChatGPT, ter clarificado a sua política de privacidade e a ter tornado mais acessível, além de ter oferecido uma nova ferramenta para verificar a idade dos utilizadores.

Outros países europeus, incluindo a França e a Espanha, apresentaram queixas sobre o ChatGPT semelhantes às apresentadas pela Itália, embora não tenham sido tomadas decisões sobre essas queixas.

Diferentes abordagens à regulamentação

Toda a regulamentação reflete a política, a ética e a cultura da sociedade em que se insere, afirmou Martha Bennett, vice-presidente e analista principal da Forrester, referindo que nos EUA, por exemplo, existe uma relutância instintiva em regulamentar, a menos que haja uma enorme pressão nesse sentido, enquanto na Europa existe uma cultura muito mais forte de regulamentação para o bem comum.

“Não há nada de errado em ter uma abordagem diferente, porque sim, não se quer sufocar a inovação”, disse Bennett. Aludindo aos comentários feitos pelo governo do Reino Unido, Bennett disse que é compreensível não querer sufocar a inovação, mas não concorda com a ideia de que, ao basear-se em grande parte nas leis atuais e ser menos rigoroso do que a Lei da IA da UE, o governo do Reino Unido pode dar ao país uma vantagem competitiva – especialmente se isso vier à custa das leis de proteção de dados.

“Se o Reino Unido ficar com a reputação de estar a brincar com os dados pessoais, isso também não é apropriado”, afirmou.

Embora Bennett acredite que as diferentes abordagens legislativas podem ter os seus benefícios, observa que os regulamentos sobre IA implementados pelo governo chinês seriam completamente inaceitáveis na América do Norte ou na Europa Ocidental.

De acordo com a legislação chinesa, as empresas de IA terão de apresentar avaliações de segurança ao governo antes de lançarem as suas ferramentas de IA ao público, e qualquer conteúdo gerado pela IA generativa deve estar em conformidade com os valores socialistas fundamentais do país. O não cumprimento das regras resultará na aplicação de coimas aos fornecedores, na suspensão dos seus serviços ou em investigações criminais.

Os desafios da legislação sobre IA

Embora vários países tenham começado a elaborar regulamentos sobre a IA, esses esforços são dificultados pelo facto de os legisladores terem de estar constantemente a tentar recuperar o atraso em relação às novas tecnologias, tentando compreender os seus riscos e recompensas.

“Se nos referirmos à maioria dos avanços tecnológicos, como a Internet ou a inteligência artificial, é como uma faca de dois gumes, uma vez que pode ser utilizada tanto para fins lícitos como ilícitos”, afirmou Felipe Romero Moreno, professor principal da Faculdade de Direito da Universidade de Hertfordshire, cujo trabalho se centra nas questões jurídicas e na regulamentação das tecnologias emergentes, incluindo a IA.

Os sistemas de IA também podem causar danos inadvertidamente, uma vez que os humanos que os programam podem ser tendenciosos e os dados com que os programas são treinados podem conter informações tendenciosas ou incorretas. “Precisamos de inteligência artificial que tenha sido treinada com dados imparciais”, disse Romero Moreno. “Caso contrário, as decisões tomadas pela IA serão imprecisas e discriminatórias.”

A responsabilização por parte dos fornecedores é essencial, disse ele, afirmando que os utilizadores devem poder contestar o resultado de qualquer decisão de inteligência artificial e obrigar os criadores de IA a explicar a lógica ou a fundamentação do raciocínio da tecnologia. (Um exemplo recente de um caso relacionado é uma ação judicial coletiva intentada por um homem dos EUA que foi rejeitado de um emprego porque o software de vídeo de IA o considerou indigno de confiança).

As empresas tecnológicas têm de tornar os sistemas de inteligência artificial auditáveis, para que possam ser sujeitos a controlos independentes e externos por parte dos organismos reguladores, e os utilizadores devem ter acesso a recursos legais para contestar o impacto de uma decisão tomada pela inteligência artificial, sendo a supervisão final sempre atribuída a um ser humano e não a uma máquina, afirmou Romero Moreno.

Os direitos de autor são uma questão importante para as aplicações de IA

Outra questão regulamentar importante que tem de ser ultrapassada é a dos direitos de autor. A Lei da IA da UE inclui uma disposição que obriga os criadores de ferramentas de IA generativa a divulgarem qualquer material protegido por direitos de autor utilizado para desenvolver os seus sistemas.

“Os direitos de autor estão em todo o lado, por isso, quando se tem uma quantidade gigantesca de dados algures num servidor e se vai utilizar esses dados para treinar um modelo, é provável que pelo menos alguns desses dados estejam protegidos por direitos de autor”, afirmou Goossens, acrescentando que as questões mais difíceis de resolver se prendem com os conjuntos de treino com base nos quais as ferramentas de IA são desenvolvidas.

Quando este problema surgiu pela primeira vez, os legisladores de países como o Japão, Taiwan e Singapura abriram uma exceção para o material protegido por direitos de autor que fosse incluído nos conjuntos de treino, afirmando que os direitos de autor não deviam impedir os avanços tecnológicos.

No entanto, segundo Goossens, muitas destas exceções aos direitos de autor já têm quase sete anos. A questão é ainda mais complicada pelo facto de, na UE, embora existam as mesmas exceções, qualquer pessoa que seja detentora de direitos poder optar por não ter os seus dados utilizados em conjuntos de treino.

Atualmente, como não há qualquer incentivo para que os seus dados sejam incluídos, um grande número de pessoas está a optar por não participar, o que significa que a UE é uma jurisdição menos desejável para os fornecedores de IA operarem.

No Reino Unido, existe atualmente uma exceção para fins de investigação, mas o plano para introduzir uma exceção que inclua as tecnologias de IA comerciais foi abandonado, tendo o governo ainda de anunciar um plano alternativo.

O que se segue na regulamentação da IA?

Até agora, a China é o único país que aprovou leis e instaurou processos judiciais relacionados com a IA generativa – em maio, as autoridades chinesas detiveram um homem no norte da China por alegadamente ter utilizado o ChatGPT para escrever artigos de notícias falsas.

Por outro lado, o governo do Reino Unido afirmou que os reguladores irão emitir orientações práticas para as organizações, definindo como implementar os princípios delineados no seu Livro Branco nos próximos 12 meses, enquanto a Comissão Europeia deverá votar em breve para finalizar o texto da sua Lei de IA.

Em comparação, os EUA parecem ainda estar na fase de apuramento dos factos, embora o Presidente Joe Biden e a Vice-Presidente Kamala Harris se tenham reunido recentemente com executivos de empresas líderes em IA para discutir os potenciais perigos da IA.

No mês passado, duas comissões do Senado também se reuniram com especialistas do sector, incluindo o CEO da OpenAI, Sam Altman. Falando aos legisladores, Altman disse que a regulamentação seria “sensata” porque as pessoas precisam de saber se estão a falar com um sistema de IA ou a ver conteúdos – imagens, vídeos ou documentos – gerados por um chatbot.

“Penso que também vamos precisar de regras e diretrizes sobre o que se espera em termos de divulgação por parte de uma empresa que fornece um modelo que pode ter este tipo de capacidades de que estamos a falar”, disse Altman.

Este é um sentimento com o qual Bennett, da Forrester, concorda, argumentando que o maior perigo que a IA generativa representa para a sociedade é a facilidade com que a desinformação pode ser criada.

“Esta questão está relacionada com a necessidade de garantir que os fornecedores destes modelos linguísticos de grande dimensão e das ferramentas de IA generativa respeitam as regras existentes em matéria de direitos de autor, propriedade intelectual, dados pessoais, etc., e de analisar a forma de garantir que essas regras são realmente aplicadas”, afirmou.

Romero Moreno argumenta que a educação é a chave para combater a capacidade da tecnologia de criar e espalhar desinformação, especialmente entre os jovens ou aqueles que são menos experientes em tecnologia. As notificações pop-up que recordam aos utilizadores que o conteúdo pode não ser exato encorajariam as pessoas a pensar de forma mais crítica sobre a forma como interagem com o conteúdo em linha, disse ele, acrescentando que algo como as atuais mensagens de exclusão de responsabilidade sobre cookies que aparecem nas páginas Web não seria adequado, uma vez que são frequentemente longas e complicadas e, por conseguinte, raramente lidas.

Em última análise, Bennett afirmou que, independentemente da legislação final, as entidades reguladoras e os governos de todo o mundo têm de agir agora. Caso contrário, acabaremos numa situação em que a tecnologia foi explorada de tal forma que estaremos a travar uma batalha que nunca poderemos vencer.




Deixe um comentário

O seu email não será publicado