Ética – que ética? Para a Microsoft, a IA está a todo o vapor

A Microsoft abraçou rapidamente tudo o que é IA, mesmo quando muitos na indústria tecnológica levantam preocupações sobre os perigos inerentes à tecnologia. A empresa não quer saber.

Por Preston Gralla

A Microsoft está a apostar tudo na inteligência artificial (IA) por uma razão muito simples: acredita que a sua liderança na tecnologia fará com que volte a ser o líder do mundo tecnológico. A Microsoft está muito atrás da Google nas pesquisas e nos browsers, mas acredita que a IA pode ajudá-la a reduzir essa liderança, ou mesmo a tornar a Microsoft dominante.

Os riscos não podiam ser maiores. A CFO da Microsoft, Amy Hood, disse recentemente aos analistas que um único ponto percentual de quota de mercado na publicidade de pesquisa vale dois mil milhões de dólares. No primeiro trimestre de 2023, a Google tinha uma quota de mercado de pesquisa de 85%, em comparação com os 9% do Bing. Portanto, há muitas vantagens para a Microsoft colher biliões se puder se aproximar do Google. E isso é apenas na pesquisa. A Microsoft vê mais biliões em dinheiro adicional impulsionado por IA na cloud, ferramentas de produtividade e muito mais.

Os obstáculos à Microsoft não são apenas a concorrência. Os governos de todo o mundo, os especialistas em ética e muitos investigadores de IA acreditam que a tecnologia em rápida evolução, se não for tratada corretamente, representa um perigo significativo para a sociedade e a democracia e pode mesmo pôr em risco o futuro da humanidade.

Tudo isto preocupa o investigador pioneiro da IA, Geoffrey Hinton, o “Padrinho da IA”, que recentemente se demitiu do seu emprego de uma década na Google em protesto contra a utilização sem restrições da tecnologia. “Não creio que devam aumentar a escala desta tecnologia até perceberem se a podem controlar”, disse depois de deixar a Google.

Mas não está sozinho. Em março, mais de 1.000 investigadores de IA, líderes tecnológicos e outros assinaram uma carta aberta a alertar para o facto de os criadores de IA estarem “presos numa corrida descontrolada para desenvolver e implementar mentes digitais cada vez mais poderosas que ninguém – nem mesmo os seus criadores – conseguem compreender, prever ou controlar de forma fiável”. Pediram uma pausa no desenvolvimento de qualquer ferramenta de IA que seja mais poderosa do que a GPT-4, desenvolvida pela OpenAI, na qual a Microsoft investiu 13 mil milhões de dólares.

No início de abril, 19 líderes da sociedade académica Association for the Advancement of Artificial Intelligence (Associação para o Avanço da Inteligência Artificial), com 40 anos de existência, publicaram uma carta alertando para os perigos que a IA representa. Entre os signatários estava Eric Horvitz, diretor científico da Microsoft e antigo presidente da sociedade.

Microsoft’s response to all this? Either a big shrug or the middle finger, depending on what you think of the company.

Moendo a “salsicha” de IA

Não é que a Microsoft não esteja ciente dos perigos. Está suficientemente preocupada para ter criado vários grupos internos sobre o assunto, incluindo o Gabinete de IA Responsável. Mas esses grupos parecem ser pouco mais do que uma fachada.

A empresa já teve uma equipa de ética e sociedade incorporada diretamente na sua organização de IA, uma equipa que tinha dentes reais. Em 2020, incluía 30 engenheiros, designers e filósofos, e trabalhava com o grupo de desenvolvimento de IA para garantir que a IA era tratada de forma ética.

Essa equipa, de acordo com a Platformer, traduzia as declarações vagas do Gabinete de IA Responsável e certificava-se de que eram postas em prática no envio de produtos.

Um membro do grupo explicou: “As pessoas olhavam para os princípios que saíam do gabinete de IA responsável e diziam: ‘Não sei como é que isto se aplica’. A nossa função era mostrar-lhes e criar regras em áreas onde não havia nenhuma”.

Mas à medida que a Microsoft acelerou o desenvolvimento de IA, reduziu o pessoal da equipa. Em outubro de 2022, quatro meses antes de lançar o chatbot Bing AI, a Microsoft cortou a equipa para uma equipa mínima de sete pessoas. A empresa não escondeu por que agiu: corria para lançar seu chatbot de IA e não queria que nada, incluindo considerações éticas, atrapalhasse a seu caminho.

A Platformer teve acesso ao áudio de uma reunião em que John Montgomery, vice-presidente corporativo de IA da Microsoft, disse à equipa porque estava a ser cortada.

A pressão do [CTO] Kevin [Scott] e do [CEO] Satya [Nadella] é muito, muito alta para pegar nesses modelos OpenAI mais recentes e nos que vêm depois deles e colocá-los nas mãos dos clientes a uma velocidade muito alta”, é citado como tendo dito no áudio. A equipa de ética, segundo ele, estava no caminho.

Um membro da equipa respondeu: “Embora compreenda que há questões comerciais em jogo…, o que sempre preocupou profundamente esta equipa foi o impacto que temos na sociedade e os impactos negativos que temos tido. E eles são significativos”.

Montgomery rejeitou a queixa: “Posso reconsiderar? Não creio que o faça. Porque infelizmente as pressões continuam a ser as mesmas. Não tem a visão que eu tenho, e provavelmente pode estar grato por isso. Há muita coisa a ser transformada em salsicha”.

Mesmo depois dos cortes na equipa, a “salsicha” de IA aparentemente não estava a ser triturada com rapidez suficiente para a Microsoft. No dia 6 de Março, a equipa foi totalmente eliminada.

Mostrando o nariz aos federais

Ao mesmo tempo que a Microsoft visava pessoas dentro da empresa preocupadas com a IA, o resto do mundo também se preocupava cada vez mais. No início de maio, a Casa Branca convidou os líderes de IA da Microsoft, Google, Open AI (o fabricante do ChatbotGPT) e a startup Anthropic para se reunirem com a Vice-Presidente Kamala Harris. O Presidente Biden participou brevemente na reunião e avisou: “O que estão a fazer tem um enorme potencial e um enorme perigo”. Harris reforçou a ideia, declarando: “O setor privado tem a responsabilidade ética, moral e legal de garantir a segurança e a proteção dos seus produtos”.

A Microsoft não se deu ao trabalho de fingir que se preocupa com as preocupações do presidente e do vice-presidente. No mesmo dia da reunião na Casa Branca, disponibilizou o chatbot do Bing a quem o quisesse utilizar, eliminou as barreiras de segurança que tinha colocado à sua volta e abriu-o aos programadores.

A mensagem da empresa foi clara e inequívoca: para a Microsoft, a IA está a todo o vapor, apesar dos seus efeitos potencialmente perigosos. Afinal de contas, há muito dinheiro a ganhar.




Deixe um comentário

O seu email não será publicado