Duas comissões distintas do Senado dos EUA reuniram-se separadamente com especialistas do setor, incluindo o CEO da OpenAI, para discutir como controlar a IA à medida que esta acelera a autoestrada do desenvolvimento, ameaçando a privacidade e os direitos.

Por Lucas Mearian
Há interesses nacionais vitais no avanço da inteligência artificial (IA) para agilizar os serviços públicos e automatizar tarefas mundanas realizadas por funcionários do governo. Mas o governo carece tanto do talento de TI quanto dos sistemas para apoiar esses esforços.
“O governo federal, como um todo, continua a enfrentar obstáculos na contratação, gestão e retenção de pessoal com competências técnicas avançadas – as mesmas competências necessárias para conceber, desenvolver, implementar e monitorizar sistemas de IA”, afirma Taka Ariga, cientista-chefe de dados do Gabinete de Prestação de Contas do Governo dos EUA.
Daniel Ho, diretor associado do Instituto de Inteligência Artificial Centrada no Ser Humano (HAI) da Universidade de Stanford, concordou que, segundo uma estimativa, o governo federal teria de contratar cerca de 40 000 trabalhadores de TI para resolver os problemas de cibersegurança colocados pela IA.
As ferramentas de inteligência artificial foram objeto de duas audições distintas no Capitólio. Perante a Comissão de Segurança Interna e Assuntos Governamentais, um painel de cinco especialistas em IA testemunhou que, embora a adoção da tecnologia seja inevitável, a eliminação da supervisão humana da mesma apresenta enormes riscos. E numa audiência do subcomité do Senado sobre privacidade, tecnologia e direito, Sam Altman, CEO da OpenAI, juntou-se à executiva da IBM Christina Montgomery e a Gary Marcus, professor emérito da Universidade de Nova Iorque, para testemunhar.
[Subscreva o Computerworld Diário – Todos os dias no seu email tudo sobre o mundo da tecnologia.]
Os depoimentos sobrepostos abordaram uma série de questões e preocupações sobre o rápido crescimento e evolução das ferramentas baseadas em IA. Para além da necessidade de mais trabalhadores qualificados no governo dos EUA, os funcionários manifestaram a sua preocupação com os preconceitos das agências governamentais com base em dados defeituosos ou corruptos dos algoritmos de IA, os receios de desinformação eleitoral e a necessidade de uma maior transparência sobre a forma como as ferramentas de IA funcionam efetivamente e os grandes modelos linguísticos subjacentes.
No seu discurso de abertura, o presidente da Comissão de Segurança Interna e Assuntos Governamentais, o senador democrata Gary Peters, afirmou que os EUA devem assumir a liderança mundial no desenvolvimento e na regulamentação da IA, estabelecendo normas que possam “abordar os potenciais riscos e danos”.
Uma das ameaças mais óbvias? Os dados que os chatbots de IA, como o ChatGPT da OpenAI, utilizam para gerar respostas são muitas vezes inacessíveis a qualquer pessoa fora da comunidade de fornecedores, e mesmo os engenheiros que concebem os sistemas de IA nem sempre compreendem como os sistemas chegam às suas conclusões.
Por outras palavras, os sistemas de IA podem ser caixas negras que utilizam tecnologia proprietária, muitas vezes apoiada em dados errados, para produzir resultados errados.
Maus dados de entrada, maus resultados de saída?
Peters referiu-se a um estudo recente da Universidade de Stanford que revelou um algoritmo de IA do Internal Revenue Service (Serviço de Impostos Internos) com falhas, utilizado para determinar quem deve ser objeto de auditoria. O sistema selecionava cinco vezes mais os contribuintes negros do que os de outras raças.
Peters também se referiu aos sistemas baseados em IA implementados por pelo menos uma dúzia de estados para determinar a elegibilidade para benefícios de invalidez, “o que resultou no facto de o sistema negar a milhares de beneficiários esta assistência crítica que os ajuda a viver de forma independente”, disse Peters.
Como o sistema de benefícios por invalidez era considerado “tecnologia proprietária” pelos estados, os cidadãos não podiam saber por que lhes foram negados benefícios ou recorrer da decisão, disse Peters. As leis de privacidade que mantiveram os dados e o processo ocultos não foram projetadas para lidar com aplicativos e problemas de IA.
“À medida que as agências usam mais ferramentas de IA, elas devem garantir que estão protegendo e usando adequadamente quaisquer entradas de dados para evitar divulgações acidentais ou usos não intencionais que prejudiquem os direitos civis ou as liberdades civis dos americanos”, disse Peters.
Richard Eppink, advogado da União Americana das Liberdades Civis (ACLU) de Idaho, observou que a fundação entrou com uma ação coletiva em nome de cerca de 4,000 cidadãos de Idaho com deficiências intelectuais e de desenvolvimento que tiveram o financiamento negado pelo programa Medicaid do Estado por causa de um sistema baseado em IA. “Não podemos permitir que a IA proprietária mantenha os direitos processuais como reféns”, disse Eppink.
Na outra audição sobre IA, Altman foi questionado sobre se os cidadãos deveriam estar preocupados com a possibilidade de os grandes modelos linguísticos (LLM), como o GPT-4 e a sua aplicação chatbot, ChatGPT, poderem manipular as eleições.
“Essa é uma das áreas que mais me preocupa”, respondeu. “A capacidade mais geral destes modelos para manipular, persuadir, fornecer desinformação interativa de um para um, tendo em conta que vamos estar perante uma eleição no próximo ano e que estes modelos estão a melhorar, penso que é uma área de grande preocupação”.
A regulamentação, segundo Altman, seria “sensata” porque as pessoas precisam de saber se estão a falar com um sistema de IA ou a ver conteúdos – imagens, vídeos ou documentos – gerados por um chatbot. “Penso que também vamos precisar de normas e diretrizes sobre o que se espera em termos de divulgação por parte de uma empresa que fornece um modelo que pode ter este tipo de capacidades de que estamos a falar. Por isso, fico nervoso”.
No entanto, as pessoas adaptar-se-ão rapidamente, acrescentou, apontando o software Photoshop da Adobe como algo que inicialmente enganou muitos até se aperceberem das suas capacidades. “E depois, muito rapidamente, as pessoas aperceberam-se de que as imagens podiam ter sido retocadas com o Photoshop”, diz Altman. “Isto vai ser como isso, mas com esteroides”.
Marca de água para designar conteúdos de IA
Lynne Parker, diretora da Iniciativa de IA do Tennessee na Universidade do Tennessee, afirma que um método para identificar o conteúdo gerado pelas ferramentas de IA é incluir marcas de água. Esta tecnologia permitiria aos utilizadores conhecer a proveniência do conteúdo.
Maggie Hassan (D-New Hampshire), membro da comissão parlamentar, afirmou que será realizada uma futura audição sobre a questão da marca de água nos conteúdos de IA.
Altman também sugeriu que o governo dos EUA siga um plano de supervisão da IA em três pontos:
- Formar uma agência governamental encarregada de licenciar grandes modelos de IA e revogar aqueles que não cumprem as normas governamentais.
- Criar normas de segurança para os LLM que incluam a capacidade de avaliar se são perigosos ou não. À semelhança de outros produtos, os MLT teriam de passar testes de segurança, nomeadamente não serem capazes de se “auto-replicarem”, de se tornarem desonestos e de começarem a agir por conta própria.
- Criar um quadro independente de auditoria da IA, supervisionado por peritos independentes.
Altman, no entanto, não abordou as preocupações de transparência sobre como os LLM são treinados, algo que a senadora Marsha Blackburn (R-Tenn.) e outros membros do comité sugeriram.
Parker também apelou a uma ação federal: diretrizes que permitam ao governo dos EUA utilizar a IA de forma responsável. Ele listou dez, incluindo a proteção dos direitos dos cidadãos, o uso de padrões estabelecidos, como a estrutura de governança de IA proposta pelo NIST, e a criação de um conselho federal de IA.
Parker argumentou que não há necessidade de uma supervisão onerosa ou pesada que impeça o desenvolvimento e a implantação de sistemas de IA. Em vez disso, as diretrizes propostas, como o projeto do Gabinete de Ciência e Tecnologia para uma Carta de Direitos da IA, abordariam questões de alto risco.
É também importante definir a utilização responsável da IA, algo que deve ser da responsabilidade de agências como o Gabinete de Gestão e Orçamento.
Uma preocupação: os fornecedores de chatbots e outras tecnologias de IA estão a trabalhar arduamente para obter informações públicas, como registos de telemóveis e endereços de cidadãos, de agências estatais e federais para ajudar no desenvolvimento de novas aplicações. Estas aplicações podem seguir as pessoas e os seus hábitos online para melhor as comercializar.
China aposta na inteligência artificial
A comissão do Senado também ouviu preocupações sobre o facto de a China estar a liderar o desenvolvimento e as normas de IA. “Parece que fomos apanhados numa armadilha”, disse Jacob Siegel, editor-chefe da revista Tablet Magazine news. “Há um interesse nacional vital em promover o avanço da IA, mas, no momento, o uso principal da IA pelo governo parece ser uma arma política para censurar informações que ele ou seus parceiros terceirizados consideram prejudiciais.”
Siegel, cuja revista online se concentra em notícias e cultura judaicas, é um ex-oficial de inteligência e veterano das guerras do Iraque e do Afeganistão.
A governação americana da IA até à data, argumentou, está a emular o modelo chinês com um controlo social de cima para baixo e orientado pelo partido. “Continuar nesta direção significará o fim da nossa tradição de autogovernarão e do modo de vida americano”.
Siegel disse que as suas experiências na guerra contra o terrorismo lhe deram “um vislumbre da revolução da IA”. Ele disse que a tecnologia já está “a refazer o sistema político e a cultura da América de maneiras que já se mostraram incompatíveis com o nosso sistema de democracia e autogoverno e podem em breve tornar-se irreversíveis”.
Ele fez referência ao testemunho no início deste mês de Jen Easterly, diretora da Agência de Segurança Cibernética e de Infraestrutura (CISA), que disse que a China já estabeleceu grades de proteção para garantir que a IA representa os seus valores. “E os Estados Unidos deveriam fazer o mesmo”, disse Siegel.
O Comité Judiciário realizou uma audiência em março para discutir o potencial transformador da IA, bem como os seus riscos. A audiência concentrou-se em como a IA pode ajudar o governo a fornecer serviços com mais eficiência, evitando intrusões na privacidade, liberdade de expressão e preconceito.
Preocupações com a censura
O Senador Rand Paul (R-Kentucky) descreveu um cenário particularmente sinistro e orwelliano em que a IA, como o ChatGPT, não só atua com base em dados incorretos, mas também pode produzir conscientemente desinformação e censurar a liberdade de expressão com base no que o governo determina ser para o bem maior.
Por exemplo, Paul descreveu como, durante a pandemia da COVID, uma parceria público-privada trabalhou em colaboração com empresas privadas, como o Twitter, para utilizar a IA para automatizar a descoberta de mensagens controversas sobre a origem de vacinas e tratamentos não aprovados e removê-las.
“O objetivo, diziam eles, era combater a influência maligna estrangeira. Mas, na realidade, o governo não estava a suprimir a desinformação estrangeira. Estava a trabalhar para censurar o discurso interno dos americanos”, disse Paul. “George Orwell ficaria orgulhoso.
Desde 2020, disse Paul, o governo federal concedeu mais de 500 contratos para sistemas proprietários de IA. O senador afirmou que os contratos foram para empresas cuja tecnologia é usada para “minerar a internet, identificar conversas indicativas de narrativas prejudiciais, rastrear essas ameaças e desenvolver contramedidas antes que as mensagens se tornem virais”.