O único problema real com os meios sintéticos

As empresas estão a publicar conteúdos DALL-E 2 e ChatGPT num vazio legal.

Por Mike Elgan

A vida real chega-lhe rapidamente. A vida falsa chega-lhe ainda mais depressa.

Criadores de conteúdos, comerciantes, bloggers de empresas e outros apressam-se a tirar partido da nova tendência dos meios de comunicação sintéticos.

Pode ver porquê. A arte criada com inteligência artificial (IA) permite uma alternativa mais flexível e original à velha fotografia de stock envelhecido. E os geradores de conteúdo de IA, mais especialmente o ChatGPT, podem literalmente escrever publicações em blogues, anúncios e conteúdos de marketing de qualidade em segundos.

O ano 2022 acabou por ser o ano em que as ferramentas dos meios de comunicação sintéticos se tornaram mainstream.

A maior parte do crédito por esta súbita viragem para os media sintéticos de milhões de pessoas vai para uma empresa sediada em São Francisco chamada OpenAI. A empresa, que é uma empresa com fins lucrativos, propriedade de uma empresa sem fins lucrativos – ambas chamadas OpenAI – foi fundada por Sam Altman, Elon Musk, Greg Brockman, Reid Hoffman, Jessica Livingston, Peter Thiel, Amazon Web Services, Infosys, e YC Research e apoiada pela Microsoft com a quantia de mil milhões de dólares. A OpenAI recebe o crédito porque é responsável tanto pelo DALL-E 2 como pelo ChatGPT, os serviços que colocam no mapa tanto a arte da IA como a estranha IA chat.

Centenas de novos produtos e serviços online surgiram nas últimas semanas, permitindo uma fácil utilização destas ferramentas fundamentais. Mas o OpenAI está no seu cerne.

O verdadeiro problema com os meios sintéticos

O professor de filosofia da Universidade Furman, Darren Hick, avisou recentemente no Facebook que os professores podem esperar uma “inundação” de ensaios de trabalhos de casa escritos pelo ChatGPT. Também podemos esperar “batota” por parte dos criadores de conteúdos da empresa.

As ferramentas públicas de meios de comunicação sintéticos baseadas em DALL-E 2 e ChatGPT poupam tempo e dinheiro ao gerar conteúdo de qualidade rapidamente. As empresas já estão a utilizá-lo para publicações sociais, publicações em blogs, respostas automáticas e ilustração.

Os meios de comunicação sintéticos prometem um futuro muito próximo em que os anúncios são gerados por medida para cada cliente, agentes de serviço ao cliente de IA super-realistas atendem o telefone mesmo em pequenas e médias empresas, e todas as imagens de marketing, publicidade e negócios são geradas por IA, em vez de fotógrafos humanos e pessoas gráficas. A tecnologia promete IA que escreve software, lida com SEO, e publica nas redes sociais sem intervenção humana.

Ótimo, certo? O problema é que poucos estão a pensar sobre as ramificações legais.

Digamos que quer que a liderança da sua empresa seja apresentada numa página “Sobre Nós” no seu website. As empresas estão agora a bombear selos existentes para uma ferramenta de IA, escolhendo um estilo, gerando depois fotografias falsas que parecem todas fotografias tiradas no mesmo estúdio com a mesma iluminação, ou pintadas pelo mesmo artista com o mesmo estilo e paladar de cores. Mas os estilos são frequentemente “aprendidos” pela IA através do processamento (em termos legais) da propriedade intelectual de fotógrafos ou artistas específicos.

Isso é roubo de propriedade intelectual?

Também corre o risco de publicar conteúdo semelhante ou idêntico ao conteúdo do ChatGPT publicado noutro local – pelo menos ser rebaixado na Pesquisa Google para duplicar conteúdo e, no máximo, ser visto (ou processado) por plágio.

Por exemplo, digamos que uma empresa utiliza o ChatGPT para gerar um post no blogue, fazendo pequenas edições. Os direitos de autor podem ou não proteger esse conteúdo, incluindo os bits gerados pela IA.

Mas depois uma empresa concorrente encarrega o ChatGPT de escrever outro post no blog, gerando uma linguagem de expressão idêntica à primeira. Após pequenas edições, essa cópia fica online.

Neste caso, quem está a copiar quem? Quem detém os direitos sobre as línguas que são idênticas em cada caso? OpenAI? O primeiro cartaz? Ambos?

Pode ser que se o segundo utilizador do ChatGPT nunca viu o conteúdo do primeiro utilizador, não se trata de plágio técnico. Se for esse o caso, podemos estar perante uma situação em que centenas de sites estão a receber uma linguagem idêntica do ChatGPT mas nenhuma pessoa está tecnicamente a copiar qualquer outra pessoa.

A Adobe está a aceitar submissões de arte gerada por IA, que venderão como “fotografia” de stock – e com esse acordo reivindicam a propriedade das imagens com a intenção de impedir que outras pessoas as copiem e utilizem sem pagamento. Têm ou devem ter o direito de “possuir” estas imagens – especialmente se o seu estilo for baseado na obra publicada de um artista ou fotógrafo?

Atravessar uma linha vermelha legal?

A maior exposição legal pode ser a publicação cega de erros absolutos, dos quais o ChatGPT é notoriamente capaz. (Hick, o professor de Furman, apanhou uma estudante a usar Chat GPT porque o seu ensaio foi escrito sem falhas e totalmente errado).

Pode também gerar conteúdos difamatórios, ofensivos ou caluniosos, ou conteúdos que violem a privacidade de alguém.

Quando as palavras da IA transgridem, de quem é a transgressão? O ChatGPT concede permissão para utilizar a sua produção, mas exige que se revele que é conteúdo gerado por IA.

Mas os direitos de autor cortam nos dois sentidos. A maioria dos ChatGPT é genérica onde as fontes sobre esse tópico são muitas. Mas em tópicos em que as fontes são poucas, o próprio ChatGPT pode estar a infringir os direitos de autor. Pedi ao ChatGPT para me falar sobre o negócio da minha mulher, e a IA descreveu-o perfeitamente – nas próprias palavras da minha mulher. Os termos e condições do ChatGPT permitem a utilização da sua produção – neste caso, afirma permitir a utilização da expressão protegida por direitos de autor da minha mulher, permissão que ela não concedeu nem ao OpenAI nem aos seus utilizadores.

O ChatGPT é apresentado ao mundo como uma experiência, e os seus utilizadores estão a contribuir para o seu desenvolvimento com as suas contribuições. Mas as empresas já estão a utilizar esta produção experimental no mundo real.

O problema é que ainda não foram escritas leis e precedentes legais importantes; colocar meios sintéticos no mundo significa que a lei futura se aplicará ao conteúdo presente.

As decisões estão apenas a começar. O Gabinete de Direitos de Autor dos EUA decidiu recentemente que uma banda desenhada que utiliza arte AI não é elegível para proteção de direitos de autor. Isso não é nem uma lei nem uma decisão legal, mas é um precedente que pode ser considerado no futuro.

O OpenAI dá luz verde à utilização da produção de DALL-E e ChatGPT para usos comerciais. Ao fazê-lo, passa o ónus legal para os utilizadores, que podem ser levados à complacência sobre a adequação da utilização.

O meu conselho é: Não utilize de forma alguma os meios sintéticos para o seu negócio. Sim, use-os para obter ideias, para aprender, para explorar. Mas não publique palavras ou imagens geradas pela IA – pelo menos até que haja um quadro legal conhecido para o fazer.

Os meios de comunicação sintéticos gerados por IA são, sem dúvida, o domínio mais excitante da tecnologia neste momento. Um dia, irá transformar os negócios. Mas por agora, é uma terceira via legal que se deve evitar.




Deixe um comentário

O seu email não será publicado