Os reguladores aprovaram um novo pacote de alterações mais rigorosas em matéria de transparência e gestão de riscos para os sistemas de IA, a fim de garantir o seu desenvolvimento ético e antropocêntrico.

Por Irene Iglesias Álvarez
Um passo em direção a uma regulamentação inovadora sobre inteligência artificial (IA) no Velho Continente. A Comissão do Mercado Interno e da Proteção dos Consumidores e a Comissão das Liberdades Cívicas aprovou, por uma maioria confortável, um novo mandato de negociação para as primeiras regras de sempre sobre a IA. Os eurodeputados querem garantir que os sistemas de IA são “supervisionados por humanos, seguros, transparentes, rastreáveis, não discriminatórios e amigos do ambiente”. Os eurodeputados pretendem também uma definição uniforme de IA, concebida para ser “tecnologicamente neutra”, de modo a poder ser aplicada aos sistemas de hoje e de amanhã. É precisamente por esta razão que decidiram reduzir os limites da IA generativa, definindo novos requisitos para sistemas como o ChatGPT, entre outras novas funcionalidades.
As alterações terão de ser ratificadas na sessão plenária de junho, após o que terão início as negociações entre o Parlamento e a UE-27 para chegar a acordo sobre um regulamento definitivo. Espera-se que o regulamento esteja em vigor antes das eleições europeias de 2024.
Níveis de risco: um rótulo com um sinal de aviso
As regras, tal como inicialmente determinadas, seguirão uma abordagem baseada no risco e estabelecerão obrigações para fornecedores e utilizadores de acordo com o nível de insegurança que a IA pode gerar. Os sistemas de IA com um nível inaceitável de risco para a segurança das pessoas serão estritamente proibidos, incluindo os sistemas que utilizam técnicas subliminares ou intencionalmente manipuladoras que exploram as vulnerabilidades das pessoas ou que são utilizados para a classificação social (classificando as pessoas com base no seu comportamento social, estatuto socioeconómico ou características pessoais). Os eurodeputados alteraram substancialmente a lista elaborada pela Comissão Europeia para incluir a proibição de utilizações intrusivas e discriminatórias dos sistemas de IA. Estes incluem:
- Sistemas de identificação biométrica à distância “em tempo real” em espaços acessíveis ao público.
- Sistemas de identificação biométrica à distância “ex-post”, com a única exceção da aplicação da lei para a repressão de crimes graves e apenas após autorização judicial.
- Sistemas de categorização biométrica que utilizam características sensíveis (género, raça, religião, etnia, estatuto de cidadania, orientação política, etc.).
- Sistemas de previsão baseados na definição de perfis, na localização ou no comportamento criminal anterior.
- Sistemas de reconhecimento de emoções na aplicação da lei, gestão de fronteiras, local de trabalho e instituições de ensino.
- Extração indiscriminada de dados biométricos das redes sociais ou de imagens de circuito fechado de televisão para criar bases de dados de reconhecimento facial (violação dos direitos humanos e do direito à privacidade).
Os reguladores também alargaram a classificação das áreas de alto risco para incluir danos à saúde, à segurança, aos direitos fundamentais dos indivíduos ou ao ambiente. Acrescentaram ainda à lista de alto risco os sistemas de IA para influenciar os eleitores em campanhas políticas e os sistemas de recomendação utilizados por plataformas de redes sociais, com mais de 45 milhões de utilizadores, ao abrigo da Lei dos Serviços Digitais.
Divulgação de conteúdos gerados por IA
Os eurodeputados incluem obrigações para os fornecedores de modelos de fundação – um desenvolvimento novo e em rápida evolução no domínio da IA – que terão de garantir uma proteção sólida dos direitos fundamentais, da saúde, da segurança, do ambiente, da democracia e do Estado de direito. Terão, portanto, de avaliar e atenuar os riscos, bem como de se registar numa base de dados da UE.
Por outro lado, em consonância com a atual onda mediática, os reguladores têm-se mostrado interessados em restringir as liberdades da IA generativa. De facto, os modelos de base generativa, como o ChatGPT, terão de cumprir requisitos de transparência adicionais, como a divulgação de que o conteúdo foi gerado pela IA, a conceção do modelo para evitar a geração de conteúdo ilegal e a publicação de resumos dos dados protegidos por direitos de autor utilizados para a formação.