A mais recente medida do Presidente dos EUA, Joe Biden, para controlar a IA e manter os americanos seguros, ao mesmo tempo que permite a inovação, não é exequível, o que significa que as empresas de IA ainda têm carta branca para fazer o que quiserem.

Por Lucas Mearian
Os “compromissos voluntários” de sete empresas líderes em tecnologia de IA para ajudar a limitar os riscos de segurança, proteção e confiança associados às suas tecnologias em constante evolução não valem o papel em que poderiam ter sido escritos, de acordo com especialistas da indústria de tecnologia.
Na sexta-feira, o presidente dos EUA, Joseph R. Biden Jr., disse que se reuniu com representantes da Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI na Casa Branca, e todos se comprometeram com os padrões de segurança ao desenvolver tecnologias de IA.
“A administração Biden-Harris garantiu compromissos voluntários dessas empresas para ajudar a avançar em direção ao desenvolvimento seguro, protegido e transparente da tecnologia de IA”, diz um comunicado da Casa Branca. Os acordos incluem testes de segurança “externos” dos sistemas de IA antes do seu lançamento, descoberta e comunicação por terceiros de vulnerabilidades nos seus sistemas de IA e a utilização de marcas de água para garantir que os utilizadores saibam quando o conteúdo é gerado por IA.
Apesar do spin positivo sobre os acordos dos assessores da Casa Branca, é improvável que estes façam muito mais para conter o desenvolvimento da IA.
“O último esforço de Biden para controlar os riscos de IA, obtendo compromissos voluntários inexequíveis e relativamente vagos de sete empresas líderes de IA, é dececionante”, disse Avivah Litan, vice-presidente e analista distinto da Gartner Research. “É mais uma prova de que os reguladores governamentais não estão totalmente equipados para acompanhar a tecnologia em rápida evolução e proteger seus cidadãos das consequências potencialmente desastrosas que podem resultar do uso malicioso ou impróprio.”
Em maio, a administração Biden reuniu-se com muitas das mesmas empresas que desenvolvem IA e lançou a chamada “Declaração de Direitos de IA” para os cidadãos dos EUA; essas diretrizes não vinculativas foram um esforço para oferecer orientação e iniciar uma conversa em nível nacional sobre ameaças reais e existenciais representadas por tecnologias de IA generativas, como o ChatGPT da OpenAI.
A Casa Branca também indicou que está a trabalhar numa ordem executiva e a procurar legislação bipartidária para promover a inovação responsável e controlar a capacidade da China e de outros concorrentes para obter novos programas de tecnologia de IA e os seus componentes, de acordo com o The New York Times.
Prevê-se que a ordem executiva crie novas restrições aos semicondutores avançados e controle a exportação dos modelos de grande linguagem (LLM). Os LLM são algoritmos informáticos que processam entradas de linguagem natural e geram de forma independente imagens, vídeos e conteúdos escritos.
Ritu Jyoti, vice-presidente de pesquisa de IA e automação da IDC, disse que, embora as garantias das empresas de IA sejam um “ótimo começo”, estas devem evoluir para ações mais concretas globalmente “e esperamos que a próxima ordem executiva da Casa Branca atenda melhor aos compromissos e tenha o impacto que estamos a procura.”
A China já lançou um conjunto abrangente de regras sobre o uso público responsável da IA generativa que entrará em vigor em agosto, representando um progresso regulador muito mais rápido do que o feito nos EUA, de acordo com Litan.
“A forma como a China usa a IA para sua própria agenda nacional não é abordada por essas regras, e nenhuma das estruturas GenAI hoje aborda a cooperação internacional para o bem global comum “, disse Litan. “Os EUA precisam de se organizar antes de poderem ajudar a liderar um esforço global que aborde os riscos existenciais colocados pela IA.”
“Por padrão, as regras que regem o uso adequado de IA e medidas de segurança devem ser, no mínimo, um esforço internacional porque a tecnologia é portátil e não é limitada pela geografia ou fronteiras nacionais”, acrescentou Litan.
“Temos precedentes de acordos globais que mitigam riscos existenciais – por exemplo, com armas nucleares e alterações climáticas. Mas esses esforços, em que os riscos e os controlos são muito mais claros do que no caso da IA, também têm falhas. Por isso, imaginem a dificuldade que teremos em controlar o risco da IA a nível global”, disse.
Em junho, o líder da maioria no Senado, Chuck Schumer, D-NY, anunciou o SAFE Innovation Framework, que exige maior transparência e responsabilidade envolvendo tecnologias de IA.
O esforço SAFE de Schumer tem mais hipóteses de forçar as empresas de IA a salvaguardarem-se contra o uso indevido da sua tecnologia porque o Congresso pode, de facto, ser capaz de aprovar leis que, pelo menos, sejam aplicáveis e penalizem aqueles que as violam, de acordo com Litan.
“As atualizações das leis dos EUA podem potencialmente impedir que os maus atores causem danos através do uso dos seus modelos e aplicações de IA”, disse. “Schumer descreveu cuidadosamente os problemas e um caminho a seguir para criar uma legislação útil e sensata. Mas o Congresso tem um histórico terrível quando se trata de se antecipar aos riscos da tecnologia e aprovar leis úteis e aplicáveis.”
Alex Ratner, CEO da Snorkel AI, uma startup que ajuda as empresas a desenvolver LLMs, concordou com Litan que regular a IA será difícil na melhor das hipóteses, já que não há mais uma ou duas plataformas de código fechado; em vez disso, surgiram muitas variantes de código aberto que, em alguns casos, são ainda melhores do que as proprietárias.
“E o número de modelos está a aumentar rapidamente”, afirmou Ratner.
No entanto, quaisquer tentativas de controlo da IA devem ser um esforço de toda a indústria e não colocadas nas mãos de “monopólios”.
Embora os esforços para colocar grades de proteção em torno da IA sejam bons, eles trazem consigo a preocupação de que o excesso de regulamentação possa sufocar a inovação, de acordo com Luis Ceze, professor de ciência da computação da Universidade de Washington e CEO da plataforma de implantação de modelos de IA OctoML.
O “gato”, observou Ceze, está fora do saco neste momento e agora existem muitas bibliotecas LLM para escolher na criação de plataformas de IA generativas.“Temos um ecossistema de tecnologias para apoiar esses modelos emergentes; temos centenas de negócios de IA que não existiam em 2022 “, disse Ceze em uma resposta por e-mail ao Computerworld. “Eu sou um grande defensor da IA responsável. Mas isso exigirá uma abordagem cirúrgica. Não é apenas uma única tecnologia em jogo; é um bloco de construção fundamental que tem o potencial de promover a saúde e as ciências