Gabinete de Direitos de Autor dos EUA lançou uma iniciativa para analisar questões relacionadas com a violação de direitos de autor

A iniciativa da agência faz parte de um esforço contínuo para recolher reações do público sobre as razões pelas quais a IA pode, por vezes, utilizar de forma flagrante materiais protegidos por direitos de autor para produzir conteúdos. A agência planeia apresentar as suas conclusões ao Congresso.

Por Lucas Mearian

O Gabinete de Direitos de Autor dos EUA está a procurar obter contributos do público sobre a legislação e as questões políticas em matéria de direitos de autor suscitadas pela IA generativa e está a avaliar se se justifica a adoção de legislação federal ou de regulamentação pelo Governo dos EUA.

A tecnologia de IA generativa foi documentada com base em obras protegidas por direitos de autor utilizadas para treinar modelos linguísticos subjacentes. O Gabinete de Direitos de Autor vai analisar os níveis adequados de transparência e divulgação que envolvem a utilização de obras protegidas por direitos de autor, o estatuto jurídico dos resultados gerados pela IA e o tratamento adequado dos resultados gerados pela IA que imitam atributos pessoais de artistas humanos.

Em março, o Gabinete de Direitos de Autor dos EUA lançou uma iniciativa de IA para analisar questões relacionadas com a violação de direitos de autor pela IA generativa e outras tecnologias de IA. Até agora, este ano, a agência realizou quatro sessões públicas e dois webinars sobre a utilização de material protegido por direitos de autor para a IA.

A agência já recolheu feedback e questões e está agora a procurar mais contributos “de um público mais vasto até à data na iniciativa”. A agência planeia utilizar as informações para aconselhar o Congresso, informar o trabalho de regulamentação da própria agência e oferecer informações e recursos ao público, aos tribunais e a outras entidades governamentais que estejam a analisar a questão da violação dos direitos de autor.

“Lançámos esta iniciativa no início do ano para nos centrarmos nas questões cada vez mais complexas suscitadas pela IA generativa”, afirmou Shira Perlmutter, diretora do Gabinete de Direitos de Autor dos EUA. “Esperamos continuar a examinar estas questões de importância vital para a evolução da tecnologia e o futuro da criatividade humana.”

Nitish Mittal, sócio da área de tecnologia da Everest Group, disse que a questão da violação de direitos autorais de IA tem estado no centro da indústria de media e entretenimento. Nos últimos meses, o Writers Guild of America, Sarah Silverman, Christopher Golden e Richard Kadrey manifestaram-se contra o criador do ChatGPT, OpenAI e Meta, por alegações de violação de direitos de autor, disse Mettal. O Writers Guild está a fazer pressão para proibir a utilização de conteúdos gerados por IA.

A questão principal é que não é claro a quem pertence o conteúdo gerado pelos modelos de IA.

“Os fornecedores de tecnologia… pretendem atuar como plataformas para estes modelos de IA, mas não tomam uma posição sobre quem tem direitos legais e propriedade legítima do conteúdo que estes sistemas produzem”, afirmou Mittal, que lidera o grupo de transformação digital e serviços de TI da Everest na Europa.

O aviso de inquérito é uma medida importante, mas não surpreendente, disse ele, observando que existem quatro riscos principais na IA (e IA generativa ) que precisam de atenção especial:

  • Segurança e privacidade dos dados
  • Explicabilidade
  • Propriedade e responsabilidade
  • Preconceitos e ética

O Gabinete de Direitos de Autor pretende obter reações dos produtores de conteúdos (como escritores e estúdios), das entidades jurídicas (reguladores, advogados e tribunais) e dos fornecedores de tecnologia (grandes empresas de tecnologia e fornecedores de modelos fundamentais). Esse feedback é necessário para definir um quadro regulamentar comum e implementá-lo de forma consistente, disse Mittel.

“Não vejo isto como negativo para as empresas de tecnologia, mas uma etapa necessária para acelerar ainda mais a adoção de IA responsável”, disse. “Atualmente, muitas das grandes organizações estão a repensar os seus esforços de IA devido à ambiguidade regulatória e legal em torno do conteúdo e da propriedade do resultado. Qualquer estrutura / lei para resolver isso ajudará na adoção da IA a longo prazo.

No início deste ano, a administração Biden revelou um esforço para lidar com os riscos em torno da IA generativa , que tem vindo a avançar a uma velocidade vertiginosa desde que o ChatGPT entrou em cena no final do ano passado, fazendo soar o alarme entre os especialistas do setor.

A vice-presidente Kamala Harris e outros funcionários da administração reuniram-se com os directores executivos da Google, da Microsoft, da OpenAI e da Anthropic, uma startup de IA. As regras que resultaram dessa reunião, no entanto, destinavam-se a oferecer “orientação” e não são juridicamente vinculativas.

Avivah Litan, um distinto vice-presidente analista da Gartner, disse que as questões de direitos de autor em torno da formação do modeloIA generativa são “o auge de um choque entre os regulamentos do velho mundo e as inovações do novo mundo”.

“Não tenho a certeza de como será resolvido”, afirmou.

A IA generativa pode responder às perguntas dos utilizadores com base em grandes modelos linguísticos (LLM), algoritmos ligados a milhares de milhões – ou mesmo triliões – de parâmetros utilizados para gerar conteúdos que incluem texto, voz, imagens e vídeo. No entanto, os LLM têm de ser treinados com base em dados e informações provenientes de uma miríade de fontes, incluindo a Internet e, em muitos casos, as empresas que carregam informações privadas para personalizar os resultados para si próprias e para os clientes.

Existem normas emergentes e em evolução para a formação de modelos de IA e autenticação de conteúdos, como a Coalition for Content Provenance and Authenticity (C2PA), um grupo industrial sem fins lucrativos que criou normas técnicas para certificar a fonte e o historial (ou proveniência) de conteúdos multimédia, incluindo os criados pela IA generativa .

“Por isso, é perfeitamente possível criar uma norma para identificar materiais protegidos por direitos de autor, quando gerados, que possam ser rastreados quando o LLM e outros modelos IA generativa produzem conteúdos”, disse Litan. Esse tipo de autenticação poderia “indicar que os materiais marcados com direitos de autor foram utilizados na formação para gerar uma determinada resposta do modelo IA generativa “.

Os produtos de geração de código, como o CodeWhisperer e o Github Copilot, também têm localizadores de referência que incluem informações de licenciamento para recomendações de código e links para o repositório de código para entender os termos da licença, de acordo com Litan.

“Não há razão para que a indústria não possa implementar o mesmo conceito com materiais protegidos por direitos de autor”, afirmou. “Os reguladores devem chegar a normas relevantes que possam ser implementadas numa base futura, o que seria menos perturbador para os fornecedores de LLM de acolhimento, ou numa base retroativa.”

Se fosse aplicada retroativamente, a tarefa seria mais árdua; os criadores de LLM teriam primeiro de marcar os seus conteúdos protegidos por direitos de autor e, em seguida, os fornecedores teriam de utilizar os conteúdos marcados para treinar novamente os seus modelos.

“De qualquer forma, a implementação destas soluções exigirá muito tempo e dinheiro – especialmente o segundo….. Cabe às entidades reguladoras definir agora políticas e estabelecer prazos para a sua aplicação”, afirmou Litan. A outra opção é ignorar os direitos de autor e alterar as leis de modo a que as proteções dos direitos de autor não sejam respeitadas nas aplicações de IA generativa. Os japoneses seguiram esse caminho.




Deixe um comentário

O seu email não será publicado