Steve Wozniak: “A tecnologia do tipo ChatGPT pode ameaçar-nos a todos”

A IA é tão inteligente que está aberta aos mal intencionados, aqueles que querem enganar-nos sobre quem são”, alerta o cofundador da Apple.

Por Jonny Evans

O cofundador da Apple, Steve Wozniak, tem percorrido os meios de comunicação social para discutir os perigos da inteligência artificial (IA) generativa, alertando as pessoas para terem cuidado com os seus impactos negativos. Em declarações à BBC e à Fox News, Wozniak sublinhou que a IA pode utilizar indevidamente dados pessoais e manifestou a preocupação de que possa ajudar os burlões a criar esquemas ainda mais eficazes, desde a fraude de identidade ao phishing, passando pela quebra de palavras-passe e muito mais.

IA coloca um spammer em ação

“Estamos a ser atingidos por muito spam, coisas que tentam apoderar-se das nossas contas e das nossas palavras-passe, tentando enganar-nos”, afirmou.

Wozniak manifestou preocupação com o facto de tecnologias como o ChatGPT poderem ser utilizadas para criar e-mails fraudulentos realmente convincentes, por exemplo. Embora seja ambivalente no sentido em que consegue ver as vantagens que a tecnologia pode proporcionar, também receia que a má utilização destas ferramentas poderosas se possa tornar numa ameaça real nas mãos de pessoas más.

“A IA é tão inteligente que está aberta aos maus jogadores, àqueles que querem enganar-nos sobre quem são“, alertou.

Um perigo para as empresas

Os investigadores de segurança estão igualmente preocupados. Nas empresas, 53% dos decisores acreditam que a IA ajudará os atacantes a criar esquemas de correio eletrónico mais convincentes. Mais recentemente, a BlackBerry avisou que um ataque bem-sucedido creditado ao ChatGPT surgirá nos próximos 12 meses.

Wozniak foi um dos signatários de uma carta aberta assinada por mais de 1000 personalidades da tecnologia que alertava para a necessidade de abrandar o desenvolvimento da IA. Essa carta pedia aos laboratórios de IA que interrompessem o treino em sistemas mais potentes do que o GPT-4 durante pelo menos 6 meses.

Mesmo assim, Wozniak também alertou para a necessidade de não se reagir de imediato ao medo implícito: “Devemos ser objetivos”, disse no programa da Fox News, Your World with Neil Cavuto. “Onde estão os pontos de perigo?”

A petição alertava para alguns desses pontos, nomeadamente para o facto de “os sistemas de IA contemporâneos estarem agora a tornar-se competitivos para os humanos em tarefas gerais, e temos de nos perguntar: ‘Devemos deixar que as máquinas inundem os nossos canais de informação com propaganda e falsidade?

Também vimos casos em que a utilização de modelos de IA generativa levou à revelação de segredos comerciais, suscitando avisos de segurança por parte das agências de informação.

Uma ameaça existencial?

A opinião de Woz não é um aviso isolado. Geoffrey Hinton, o chamado padrinho da IA, tem uma opinião semelhante e deixou recentemente de trabalhar na Google para poder alertar para os perigos da IA. Hinton considera que a IA está a substituir os trabalhadores humanos em grande escala, alertando para o facto de o seu impacto poder ameaçar a estabilidade e conduzir potencialmente à extinção.

Tal como outros profissionais da tecnologia, Wozniak defende que a indústria e o governo devem identificar os pontos de perigo e agir agora para minimizar os riscos.

Apontando para o que sabemos agora sobre os riscos das redes sociais, disse: “E se nos tivéssemos sentado e pensado nisso antes do aparecimento da Web social” e criado estruturas para ajudar a gerir e minimizar esses riscos.

Governos avançam lentamente

Muitos governos estão a tentar perceber se as ferramentas de IA precisam de ser regulamentadas e como, mas é pouco provável que esse processo acompanhe a evolução da IA. A administração Biden anunciou recentemente um conjunto voluntário de regras de IA destinadas a lidar com a segurança e a privacidade e a iniciar a discussão sobre a ameaça real e existencial das tecnologias de IA, incluindo o ChatGPT.

“A IA é uma das tecnologias mais poderosas do nosso tempo, mas para aproveitar as oportunidades que ela apresenta devemos primeiro mitigar os seus riscos”, disse a Casa Branca em comunicado. “O presidente Biden deixou claro que, quando se trata de IA, devemos colocar as pessoas e as comunidades no centro, apoiando a inovação responsável que serve ao bem público, enquanto protege a nossa sociedade, segurança e economia.”

No Reino Unido, a Autoridade da Concorrência e dos Mercados (CMA) está a analisar o mercado da IA. “O nosso objetivo é ajudar esta nova tecnologia, em rápida expansão, a desenvolver-se de forma a garantir mercados abertos e competitivos e uma proteção eficaz dos consumidores”, afirmou Sarah Cardell, diretora executiva da CMA.

O governo do Reino Unido, no entanto, parece estar interessado numa abordagem não interventiva da utilização desta tecnologia.

Uma reação à ação

Estes esforços enfrentam uma reação contrária por parte de alguns profissionais da tecnologia, que argumentam que abrandar a evolução da IA em alguns países poderia dar a outros a oportunidade de se adiantarem na aplicação da tecnologia. O cofundador da Microsoft, Bill Gates, é um dos que defendem este argumento.

Hinton disse recentemente que a sua “única esperança” em relação à IA: é que os governos concorrentes possam concordar em controlar a sua utilização, uma vez que todas as partes enfrentam uma ameaça existencial. “Estamos todos no mesmo barco no que diz respeito à ameaça existencial, pelo que todos devemos ser capazes de cooperar para a tentar travar”, afirmou.

Fomos avisados

A tragédia, claro, é que os riscos existenciais inerentes à IA foram assinalados durante anos. Já em 1863, o romancista Samuel Butler avisava: “O resultado final é simplesmente uma questão de tempo, mas que chegará o momento em que as máquinas terão a verdadeira supremacia sobre o mundo e os seus habitantes é algo que nenhuma pessoa com uma mente verdadeiramente filosófica pode questionar por um momento”.

O cofundador da Apple não parece muito otimista quanto à possibilidade de serem implementadas restrições eficazes a essa utilização. “As forças que se orientam para o dinheiro, comparadas com as forças que se orientam para a preocupação connosco, para o amor, normalmente vencem. É um bocado triste”, disse à BBC.




Deixe um comentário

O seu email não será publicado