EUA e China dão os primeiros passos para a regulação da IA generativa

À medida que a IA generativa continua a dominar a indústria tecnológica, os governos de todo o mundo começam a considerar a regulamentação a fim de combater o seu potencial para ajudar a criminalidade e promover o preconceito.

Por Charlotte Trueman

Enquanto os EUA e a China são ferozes rivais no comércio tecnológico, parecem partilhar algo de novo em comum: preocupações sobre a responsabilização e possível uso indevido da IA. Na terça-feira, os governos de ambos os países emitiram anúncios relacionados com regulamentos para o desenvolvimento da IA.

A National Telecommunications and Information Administration (NTIA), um ramo do Departamento de Comércio dos EUA, apresentou um pedido público formal de contributos sobre quais as políticas que devem moldar um ecossistema de responsabilização pela IA.

Estas incluem questões em torno do acesso aos dados, medição da responsabilidade, e como as abordagens à IA podem variar em diferentes setores industriais, tais como o emprego ou os cuidados de saúde.

Os comentários escritos em resposta ao pedido devem ser fornecidos à NTIA até 10 de junho de 2023, 60 dias após a data de publicação no Registo Federal.

A notícia chega no mesmo dia em que a Cyberspace Administration of China (CAC) revelou uma série de projetos de medidas para a gestão de serviços generativos de IA, incluindo tornar os fornecedores responsáveis pela validade dos dados utilizados para formar ferramentas generativas.

O CAC afirmou que os fornecedores devem ser responsáveis pela validade dos dados utilizados para formar ferramentas de IA e que devem ser tomadas medidas para prevenir a discriminação ao conceber algoritmos e conjuntos de dados de formação, de acordo com a Reuters. As empresas serão também obrigadas a submeter avaliações de segurança ao governo antes de lançarem as suas ferramentas de IA ao público.

Se forem gerados conteúdos inadequados pelas suas plataformas, as empresas devem atualizar a tecnologia no prazo de três meses para evitar que conteúdos semelhantes sejam novamente gerados, de acordo com o projeto de regras. O não cumprimento das regras resultará na aplicação de multas aos fornecedores, na suspensão dos seus serviços, ou em investigações criminais.

“Qualquer conteúdo gerado por IA generativa deve estar em conformidade com os valores socialistas fundamentais do país”, disse o CAC.

Os gigantes tecnológicos da China têm o desenvolvimento da IA bem encaminhado. O anúncio do CAC foi feito no mesmo dia em que Alibaba Cloud anunciou um novo modelo de linguagem de grande dimensão, chamado Tongyi Qianwen, que se desenvolverá como um front-end ao estilo ChatGPT para todas as suas aplicações comerciais. No mês passado, outro serviço de Internet chinês e gigante da IA, Baidu, anunciou uma alternativa ao ChatGPT em língua chinesa, Ernie bot.

Regulação da IA vs. inovação

Embora o governo chinês tenha estabelecido um conjunto claro de diretrizes regulamentares, outros governos em todo o mundo estão a adotar uma abordagem diferente.

No mês passado, o governo do Reino Unido disse que, a fim de “evitar uma legislação pesada que poderia asfixiar a inovação”, tinha optado por não atribuir a responsabilidade pela governação da IA a um novo regulador único, apelando em vez disso aos reguladores existentes para que apresentassem as suas próprias abordagens que melhor se adequassem à forma como a IA está a ser utilizada nos seus setores.

Contudo, esta abordagem foi criticada por alguns, tendo os peritos da indústria argumentado que as estruturas existentes podem não ser capazes de regular eficazmente a IA devido à natureza complexa e multifacetada de algumas ferramentas de IA, o que significa que a conflação entre diferentes regimes será inevitável.

Além disso, o regulador de dados do Reino Unido emitiu um aviso às empresas de tecnologia sobre a proteção de informação pessoal aquando do desenvolvimento e implementação de modelos de IA generativos em grande linguagem, enquanto o regulador italiano de privacidade de dados proibiu o ChatGPT por alegadas violações de privacidade. Um grupo de 1.100 líderes tecnológicos e cientistas também apelou a uma pausa de seis meses no desenvolvimento de sistemas mais poderosos do que o recém-lançado GPT-4 da OpenAI.

Quando se trata de inovação tecnológica e regulamentação, há um certo caminho natural que a maioria dos governos ou legisladores normalmente seguem, disse Frank Buytendijk, um analista da Gartner.

“Quando há nova tecnologia no mercado, aprendemos a usá-la de forma responsável cometendo erros”, disse. “É aí que estamos neste momento com a IA”.

Depois disto, disse Buytendijk, começa a surgir regulamentação – permitindo aos criadores, utilizadores e aos sistemas legais aprenderem sobre a utilização responsável através da interpretação da lei e da jurisprudência – seguida da fase final, em que as tecnologias com utilização responsável são incorporadas.

“Aprendemos sobre a utilização responsável através das melhores práticas incorporadas, por isso é um processo”, disse Buytendijk.




Deixe um comentário

O seu email não será publicado