Legislar sobre o tsunami da IA, a lentidão de uma corrida alucinante

Os perigos da IA estão a avançar muito mais rapidamente do que a regulamentação legal desta nova tecnologia necessita para os enfrentar. Mais uma vez, a inovação está à frente da lei e, com o desenvolvimento de sistemas generativos como o ChatGPT, a UE e os EUA apanharam um atalho ao formatarem a sua lenta maquinaria jurídica para repensar e introduzir parâmetros regulamentares para o tsunami tecnológico que se aproxima.

Por Marian Álvarez Macías

Tanto a UE como os EUA têm vindo a preparar legislação para regular a Inteligência Artificial (IA) há anos, mas a rápida implantação e aplicação desta tecnologia, especialmente os sistemas generativos, explodiu na cara dos seus parlamentos e processos legislativos, devido ao sucesso do ChatGPT e aos perigos que isso implica. O alerta é tal que já a 14 de junho o Parlamento Europeu aprovou por larga maioria o início das negociações para a criação do AI Act, que será o primeiro do mundo. Com 499 votos a favor, 28 contra e 93 abstenções, os deputados europeus de todos os quadrantes políticos passaram o testemunho à fase legislativa seguinte; as conversações estão a ser transmitidas aos 27 países para chegarem ao que seria o texto final da lei, que deverá entrar em vigor, o mais tardar, em 2026.

Não há mais meias medidas. A UE percebeu tudo o que é necessário garantir ao legislar e o regulamento contemplará os valores e direitos europeus “respeitando requisitos como a supervisão humana, a segurança, a privacidade, a transparência, a não discriminação ou o bem-estar social e ambiental”, deve prevenir riscos e estabelecer obrigações para os fornecedores e para aqueles que utilizam ferramentas baseadas em IA. Especificamente, as IA generativas, como o ChatGPT, terão de cumprir requisitos de transparência adicionais e ser concebidas de forma a não poderem gerar conteúdos ilegais.

Os meses de maio e junho foram frenéticos em termos de abordagens regulamentares a uma tecnologia cuja utilização e perigosidade têm crescido exponencialmente. No início de junho, o Secretário de Estado dos EUA, Anthony Blinken, a Secretária de Comércio dos EUA, Gina Raimondo, e a Vice-Presidente da Comissão Europeia para o Digital e a Concorrência, Margrethe Vestager, reuniram-se bilateralmente na Suécia para uma reunião de emergência, com o objetivo de chegar a um acordo que só parcialmente aborda o problema global. Na reunião, a UE e os EUA concordaram em aprovar uma proposta de Código de Conduta para a IA generativa que a indústria envolvida se comprometeria a cumprir voluntariamente. O código, que será apresentado em breve, parece mais uma medida provisória e quase desesperada que poderia incluir, por exemplo, controlos como a marca de água ou auditorias externas à IA generativa.

O advogado espanhol, José Manuel Muñoz Vela, especialista em direito da tecnologia, doutorado em Direito (Direito da IA), diretor jurídico da Adequa Corporación, é direto na sua avaliação: “Isto está a avançar a toda a velocidade e há uma certa improvisação na sua abordagem”. É também claro quanto à obrigação de legislar. “O momento é agora, temos a oportunidade e a necessidade é muito clara”. Este jurista afirma que a legislação está a ser aprovada, sim, mas lentamente e sem o alcance ou a visão holística que o desenvolvimento vertiginoso desta tecnologia exige.

Apenas um dia antes da reunião na Suécia, 350 executivos, investigadores e engenheiros que trabalham com a IA pronunciaram-se numa carta aberta: “A inteligência artificial (IA) pode levar à extinção da humanidade”. A carta foi assinada por líderes de topo como Sam Altman, CEO da OpenAI, criador do ChatGPT, Demis Hassabis, da Google DeepMind, ou Dario Amodei, da Anthropic, que comparou a IA a pandemias ou a uma guerra nuclear. Semanas antes, Altman, perante o Senado dos EUA e perante líderes políticos de todo o mundo já tinha apelado à adoção de legislação sobre a sua invenção e o resto da tecnologia de IA o mais rapidamente possível, porque temia pelas democracias mundiais.

A legislação, mais uma vez, está a ficar para trás em relação à tecnologia. A Lei Europeia da Inteligência Artificial já existe há muito tempo. No entanto, será necessário algum tempo para ser aperfeiçoada e entrar em vigor. “A Lei da Inteligência Artificial ainda está a passar pelo processo e pelos procedimentos, desta vez nas comissões parlamentares antes da discussão tripartida. Seria desejável ter o regulamento até ao final do ano, mas isso é complicado”, diz Muñoz Vela, lembrando que, uma vez aprovado e em vigor, haverá um período de transição até à sua aplicação plena, como aconteceu com o RGPD, que deverá durar dois anos. “A proposta de código de conduta voluntário pretende ser um instrumento não obrigatório, devido ao seu carácter voluntário, até que exista um regulamento obrigatório aplicável”, explica.

Os Estados Unidos, por seu lado, prepararam uma Carta de Direitos da IA, que não é uma legislação em si, mas apenas uma orientação. Entretanto, estão a ser propostos quadros e regulamentos parciais. Em janeiro deste ano, o Instituto Nacional de Normas e Tecnologia (NIST) lançou o Quadro de Gestão da Inteligência Artificial. Em fevereiro, a Casa Branca emitiu uma ordem executiva que dá instruções às agências federais para garantirem que a sua utilização da IA promove a equidade e os direitos civis. O Congresso dos EUA está a considerar a Lei federal de Responsabilidade Algorítmica para evitar preconceitos no emprego de pessoas… “Tem havido uma consulta pública aberta sobre a forma de regulamentar a IA. Houve reuniões com a indústria para realizar análises de risco e avaliações de impacto, a criação de uma agência global de IA foi rejeitada de momento e seguir-se-ão normas regulamentares orientadas para a utilização”, afirma Muñoz, deixando claro que o processo é diferente do da UE, mas também requer um ritmo diferente de evolução e desenvolvimento da tecnologia.

Indefinição e abordagens parciais

Muñoz Vela considera que não só estamos a começar tarde quando se trata de legislar sobre a IA em geral, e sobre os sistemas generativos em particular, “como nem sequer existe um consenso sobre a definição do que é a IA; foi alterada até seis vezes, sendo a mais recente a fornecida pela OCDE, e provavelmente não é a definitiva. A IA é uma realidade complexa, que muda e evolui a um ritmo cada vez maior, e o legislador continua a centrar-se na IA fraca, quando já deveríamos estar a pensar numa IA mais avançada e com maior autonomia, embora esta deva ser sempre relativa por razões de segurança.” 

Como especialista e investigador em direito da IA, nas suas aulas e palestras insiste em explicar as diferenças entre a realidade científica e o estado da tecnologia, a perceção social e empresarial, e o enfoque do legislador, que tem variado no que pretende regular, partindo por vezes de um conceito de IA mais avançada e autónoma versus uma IA mais fraca e automatizada. “Há uma necessidade de compreensão e casamento entre a tecnologia e o direito. Continuamos a aplicar os princípios estabelecidos no Código Civil de 1889 em matéria de responsabilidade, que são inspirados na lei Aquiliana; do direito romano. Há coisas que são úteis no direito atual, mas tecnologias como esta exigem uma revisão do direito existente e uma abordagem transversal, porque afetam muitos direitos e liberdades.”

A UE tem estado na corrida da elaboração de regulamentação há pouco mais de dois anos, mas parece que sempre que têm um documento pronto, têm de acrescentar novos remendos algum tempo depois. Havia uma Proposta de Regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas em matéria de Inteligência Artificial (Lei da Inteligência Artificial), datada de 21 de abril de 2021, “mas tratava-se de uma abordagem regulamentar horizontal, em que apenas alguns sistemas inteligentes eram proibidos por serem de risco inaceitável e eram estabelecidos requisitos e obrigações pormenorizados para as IA de alto risco, deixando de fora os sistemas de médio ou baixo risco, uma opção que foi considerada na sua conceção inicial, mas que acabou por ser descartada. É o caso das IA generativas, como o Chat GPT, para as quais apenas foram estabelecidas algumas regras éticas na versão inicial e que foram agora incluídas no texto em análise”, explica Muñoz Vela.

A proposta de regulamento centrava-se no reforço das normas relativas à qualidade dos dados, à transparência, à supervisão humana e à responsabilidade, e abordava questões éticas e desafios de aplicação em vários setores, desde a saúde e a educação até às finanças e à energia. Também estabeleceu um sistema de classificação para o nível de risco que uma tecnologia de IA poderia representar para a saúde e a segurança de uma pessoa ou para os direitos fundamentais, e propôs quatro: inaceitável, elevado, limitado e mínimo. “Os sistemas de identificação biométrica em tempo real em espaços públicos ou os sistemas de pontuação social foram considerados riscos inaceitáveis”, afirma Muñoz Vela. A proposta inicial era de autorregulação setorial ou empresarial através de códigos de conduta.

Em setembro de 2022, foi introduzida a Proposta de Diretiva do Parlamento Europeu e do Conselho relativa à responsabilidade decorrente dos produtos, seguida da Proposta de Diretiva relativa à adaptação das regras em matéria de responsabilidade civil extracontratual à IA (Diretiva Responsabilidade da IA). Em novembro, o Conselho Europeu autorizou a abertura de negociações para a celebração de uma convenção sobre a IA, os direitos humanos, a democracia e o Estado de direito.

Em dezembro de 2022, o mesmo Conselho apresentou um novo projeto com a sua “abordagem geral” sobre o regulamento já proposto, no qual a pontuação social foi proibida também para os intervenientes privados, foram acrescentados dois casos de utilização de IA de alto risco, para infraestruturas digitais críticas e seguros de vida e saúde, e outros foram apenas matizados. Mais uma vez, a regulamentação específica da IA generativa, que é “um mundo paralelo”, de acordo com Muñoz Vela, não foi considerada.

“A abordagem do risco não foi a mais adequada. Um conjunto de regras e princípios éticos essenciais deve ser legalmente exigido para qualquer sistema inteligente que seja colocado no mercado, contemplando a IA de uso geral e a IA generativa, como não poderia deixar de ser, e transformando o dispositivo ou voluntário em imperativo”, reitera o diretor jurídico da Adecua, que salienta que as múltiplas modificações e alterações introduzidas pela UE nos últimos dois anos, e especialmente as dos últimos meses, “mostram a mudança do projeto de regulamento, que está cada vez mais próximo de uma regulamentação totalmente horizontal da IA, de acordo com a opção que foi inicialmente rejeitada”.maio de 2023: a última versão da Lei da IA.

Olhando para a versão de maio de 2023 da Lei da IA.

A reviravolta já estava à vista no dia 11 de maio no Parlamento Europeu, quando as comissões do Mercado Interno (IMCO) e das Liberdades Cívicas (LIBE) aprovaram por esmagadora maioria o projeto de regulamento para assegurar o “desenvolvimento ético” da IA (o proposto em 21 de abril e as suas alterações, modificações e remendos). Analisámos o texto que foi aprovado no dia 14 de junho pelo plenário do Parlamento Europeu, por maioria mais do que qualificada.

No texto aprovado, começa-se a perceber que a IA generativa vai além da proposta legislativa apresentada até à primavera passada. As principais inovações introduzidas, tal como tornadas públicas pelo Parlamento Europeu, são as seguintes:

1. O número de sistemas proibidos é alargado.

2. a classificação dos sistemas de alto risco foi alargada para incluir sistemas com um risco significativo de danos para a saúde, a segurança, os direitos fundamentais ou o ambiente. São também incluídos os sistemas inteligentes que influenciam os eleitores em campanhas eleitorais e os sistemas de recomendação utilizados pelas plataformas de redes sociais.

3. São incluídas novas obrigações para melhorar a governação dos dados, incluindo medidas adequadas para detetar, prevenir e atenuar potenciais enviesamentos.

4. São elaboradas novas obrigações para os sistemas de IA de uso geral e generativos: os riscos devem ser avaliados e atenuados, os requisitos de conceção, informação e ambientais devem ser cumpridos e devem ser registados na base de dados da UE.

5. São estabelecidas obrigações adicionais para os modelos de base generativa: estas incluem requisitos de transparência específicos, a obrigação de divulgar que o conteúdo foi gerado pela IA, a conceção do modelo para evitar que este gere conteúdos ilegais e a publicação de resumos dos dados protegidos por direitos de autor utilizados para treinar o modelo em questão.

6. É promovido o direito dos cidadãos de apresentarem queixas sobre os sistemas de IA e de receberem explicações sobre as decisões baseadas em sistemas de IA de alto risco que afetam significativamente os seus direitos.

7. São incluídas novas regras em matéria de transparência, análise e gestão de riscos ao longo do ciclo de vida dos sistemas de IA, com especial atenção aos riscos associados a indivíduos ou grupos particularmente vulneráveis, como os menores.

8. Os direitos à privacidade e à intimidade são reforçados. Prevê a anonimização, a cifragem e medidas algorítmicas sobre os dados para extrair informações sem comprometer a privacidade.

9. Estabelece também obrigações de informação por parte dos fornecedores sobre questões de sustentabilidade, como o consumo de energia durante o desenvolvimento e a utilização de um sistema.

10. A UE estabelece isenções lógicas para apoiar a inovação, através da introdução do novo artigo 28.º-B, sobre requisitos para a IA generativa que incluem claramente: transparência, salvaguardas adequadas contra a geração de conteúdos ilegais e a obrigação de documentar e publicar um resumo pormenorizado da utilização para formação de dados (entendidos como “obras”) protegidos por direitos de autor. Este será um esforço importante, dado o volume de dados utilizados.

O acordo para estabelecer o Código de Conduta Voluntário e Responsável para a indústria em 1 de junho não atrasa o desenvolvimento de tal legislação, como se verifica na UE, nem nos EUA, que continuam as consultas para desenvolver a sua própria legislação. O acordo indica que os decisores políticos não ficaram de braços cruzados perante a necessidade óbvia de quadros éticos e jurídicos, enquanto o processo legislativo avança ao seu próprio ritmo. Tomaram um atalho para travar os efeitos nocivos do crescimento de aplicações como o ChatGPT e a sua utilização maciça, o que é mais preocupante do que tranquilizador. Quando questionado sobre se a sociedade pode confiar no sector, Muñoz Vela é categórico: “Não se trata apenas de uma questão de confiança. A ética envolve questões essenciais como a segurança, a supervisão e o controlo humano, o respeito pelos direitos fundamentais, a transparência, a explicabilidade, etc., e isto não é negociável, tem de estar presente em qualquer sistema que seja utilizado, na sua conceção e por defeito, pelo que a indústria não pode olhar para o outro lado”. Na sua opinião, o legislador deve exigir legalmente estas questões, mas as administrações públicas e as empresas podem e devem já estar a exigi-las contratualmente aos seus fornecedores, tornando-as obrigatórias. Mas não esquece que não se deve perder de vista o apoio à inovação, ao desenvolvimento tecnológico e à competitividade, “num equilíbrio difícil de gerir em constante tensão”,