Europa vai proibir identificação biométrica remota em espaços públicos

É a primeira vez na história que se aborda o desenvolvimento de um quadro jurídico sobre inteligência artificial.

A União Europeia há muito que trabalha para promover o desenvolvimento e a utilização da inteligência artificial do ponto de vista ético e humanista que caracteriza o Velho Continente. A Comissão deu um passo firme neste sentido com a apresentação de uma proposta de regulamento que define quais serão as regras e medidas para regular este tipo de sistemas e aplicações com o objetivo de “fazer da Europa um centro mundial da inteligência artificial confiável ”. 

Este passo é significativo porque é a primeira vez na história que se aborda o desenvolvimento de um quadro jurídico sobre inteligência artificial, que será também acompanhado da aprovação de um novo plano coordenado com os Estados-Membros que visa garantir a segurança e os direitos fundamentais de indivíduos e empresas, ao mesmo tempo que reforça a adoção, o investimento e a inovação nesta tecnologia em toda a UE.

Para a vice-presidente executiva responsável pelo portfólio de uma Europa Apta para a Era Digital, Margrethe Vestager, quando o assunto é inteligência artificial, “confiança é uma obrigação, não um ornamento”. Com as suas palavras, “pela definição das normas, vamos ser capazes de facilitar o advento da tecnologia ético em todo o mundo e garantir que a UE continua a ser competitiva.” Garante que estes padrões , “à prova de futuro e propício à inovação”, irá apenas “intervir quando estritamente necessário, isto é, quando a segurança e os direitos fundamentais dos cidadãos da UE estejam em jogo”.

Um regulamento de IA “centrado no ser humano”

O novo regulamento de IA incorpora regras que abordarão os riscos específicos apresentados por sistemas de IA . As novas regras, que serão aplicadas diretamente da mesma forma em todos os Estados-Membros, seguem, portanto, uma abordagem baseada no risco: inaceitável, elevada, limitada, mínima ou zero .

Assim, os sistemas de IA cujo risco seja inaceitável e que sejam considerados uma clara ameaça à segurança, meios de subsistência e direitos das pessoas serão proibidos. Por exemplo, sistemas ou aplicações de IA que manipulam o comportamento humano para contornar a vontade dos utilizadores e sistemas que permitem a pontuação social pelos governos (como é feito na China).

Os sistemas de IA considerados de alto risco, estarão sujeitos a obrigações rígidas antes de serem comercializados. Estes sistemas abrangem tecnologias de IA usadas em infraestruturas críticas; formação educacional ou profissional; componentes de segurança do produto; emprego, gestão de trabalhadores e acesso ao trabalho autónomo; serviços essenciais públicos e privados; aplicação de leis, que podem interferir nos direitos fundamentais das pessoas; gestão da migração, asilo e controle de fronteiras; administração da justiça e processos democráticos … 

Em particular, todos os sistemas remotos de identificação biométrica são considerados de alto risco e estarão sujeitos a requisitos rígidos . A sua utilização ao vivo, de acordo com o regulamento proposto, em espaços de acesso público para fins policiais é “proibida em princípio“. Obviamente, existem exceções: por exemplo, quando é estritamente necessário procurar um menor desaparecido, para prevenir uma ameaça terrorista específica e iminente, ou para detetar, localizar, identificar ou processar um autor ou suspeito de um crime grave. Em qualquer caso, a sua utilização ficará sujeita à autorização de um órgão judicial ou de outro órgão independente e aos limites adequados do ponto de vista da duração, do âmbito geográfico e das bases de dados exploradas.

Nos sistemas de IA cujo risco é limitado, obrigações específicas de transparência são estabelecidas (por exemplo, ao usar robôs conversacionais, os utilizadores devem estar cientes de que estão interagindo com uma máquina para tomar uma decisão informada de continuar ou não).

No caso de sistemas ou aplicações com risco mínimo ou nenhum, o regulamento proposto permite o uso gratuito de soluções como vídeo jogos baseados em IA ou filtros de spam. Na verdade, a UE reconhece, ” a grande maioria dos sistemas de IA enquadra-se nesta categoria .” Dado que estes sistemas de IA representam apenas um risco mínimo ou nenhum risco para os direitos ou a segurança dos cidadãos, o projeto de regulamento não intervém neste domínio.

A UE está também a trabalhar na criação de um Comité Europeu de Inteligência Artificial que irá facilitar a aplicação destas regras e promover outras novas.




Deixe um comentário

O seu email não será publicado