Reggie Townsend defende, numa entrevista à Computerworld, uma mudança na narrativa em torno da inteligência artificial e apela à responsabilidade para não “assustar” as pessoas. É assim que devemos proceder, afirma.


Créditos: SAS.
Por Irene Iglesias Álvarez
Figura internacional do setor: Reggie Townsend. Embora alguns perfis dispensem apresentações, vale a pena lembrar que Townsend é membro do National Artificial Intelligence Advisory Committee (NAIAC), órgão responsável por orientar o presidente dos Estados Unidos e o National Office of Artificial Intelligence sobre o assunto. A sua formação e experiência, patentes no seu invejável currículo, levaram-no a chefiar a divisão Data Ethics Practice (DEP) da multinacional tecnológica SAS.
Numa entrevista em que é acessível, prático e conservador, convida-nos a pôr os pés na terra, apela à responsabilidade individual e partilhada e defende, olhando para o futuro próximo, uma narrativa matizada, reflexiva e cultivada, longe das manchetes. É assim que Townsend fala da última grande revolução tecnológica: a IA.
Neste momento, há muito burburinho em torno das capacidades da tecnologia… Dado que é um dos especialistas mais reconhecidos mundialmente neste domínio, qual é a sua perceção do atual panorama tecnológico?
Para ser muito sincero, penso que o entusiasmo vai para além das capacidades da própria tecnologia. Quando falamos de IA, devemos levar as pessoas a sério e manter a mente aberta. Eis porquê. Se dissermos às pessoas que criámos a tecnologia que as vai extinguir e que não há nada que elas possam fazer, só as assustamos. Neste caso, gostaria de adotar uma posição muito mais responsável. É importante começar a considerar onde devem existir barreiras de segurança para esses cenários, mas é ainda mais importante abordar duas questões fundamentais.
A primeira é ajudar a sociedade a aumentar o seu nível geral de literacia digital. Por outras palavras, dar-lhes as ferramentas para poderem determinar o efeito da tecnologia nas suas vidas e se querem ou não utilizá-la. Em segundo lugar, sermos mais responsáveis na forma como comunicamos o que a tecnologia pode e não pode fazer e o impacto real que tem nas pessoas. A minha maior preocupação é o facto de estarmos a assustar as pessoas; e o efeito em cadeia disso é que diminui as taxas de adoção [da tecnologia] e deixa-a nas mãos de quem tem fins duvidosos. Temos de abordar a desinformação, fornecer ferramentas, ensinar às pessoas o que é a tendência para a automatização, o que é a tendência para a confirmação.
Enquanto membro do NAIAC, que aconselha o Presidente dos Estados Unidos, sobre questões relacionadas com a IA, quais são, na sua opinião, os principais fatores que conduziram a este furor?
Vou responder a título pessoal. O lançamento do ChatGPT em novembro passado foi um marco em termos de sensibilização do público. Embora seja importante saber que os grandes modelos de linguagem (LLM) existem há muito tempo, o que o ChatGPT conseguiu de forma inovadora foi a criação de uma interface com a qual interagir e que nos apresenta o que parecem ser capacidades humanas. A realidade, no entanto, tem a ver com a matemática, uma vez que oferece respostas probabilísticas.
Foi isso que entusiasmou as pessoas, mas também as inquietou. Fomos condicionados pela ficção científica e deixámos que a mente começasse a explorar sem limites. O mês de novembro marca o momento em que toda a gente sabe, pelo menos, soletrar IA. Estamos agora num ponto de consciencialização em que podemos exercer pressão suficiente sobre os líderes políticos e empresariais para que façam algo que nos beneficie a todos. Esta última parte é o que eu quero sublinhar, negrito e itálico: que nos beneficie a todos.
“A minha maior preocupação é que estamos a assustar as pessoas; e a repercussão disso é que diminui as taxas de adoção [da tecnologia] e deixa-a nas mãos de quem tem propósitos duvidosos.”
Apesar da sua insistência em falar a título pessoal, pode dar-nos uma ideia da estratégia do Comité para a IA? Quais são as principais linhas do seu roteiro?
O Comité concentra-se em duas áreas fundamentais. Uma é o desenvolvimento, ou seja, estamos a garantir que os EUA mantêm a liderança na investigação e no desenvolvimento da IA. Também queremos garantir que temos uma estratégia clara para lidar com questões como a equidade. Isto faz parte do nosso núcleo. No entanto, há mais. Temos estado a trabalhar para fornecer um conjunto de recomendações de natureza geral. Estas recomendações dizem respeito à competitividade, à forma como os EUA podem utilizar a tecnologia de IA nas suas agências para se tornarem uma nação mais robusta e mais eficiente. A este respeito, é importante destacar algumas diretrizes sobre cooperação internacional.
Por último, mas não menos importante, centramo-nos na força de trabalho – quais são as medidas que temos de tomar para garantir que a força de trabalho dos EUA está preparada para a transição para o mundo da IA? Este ano, para além de nos centrarmos nas questões acima mencionadas, alargámos o enfoque, considerando o impacto da IA generativa na educação para criar níveis de inclusão muito intencionais, garantindo que estamos a ouvir um grupo de cidadãos dos EUA.
A necessidade de orquestrar uma regulamentação global para regular a IA está em cima da mesa – que pontos acha que devem ser abordados para garantir a utilização responsável da IA?
Vou dividir esta questão. A um nível fundamental, a IA consiste em utilizar dados para tomar as decisões corretas. A este respeito, penso que uma das questões que tem de ser abordada a nível global é o direito a ser esquecido, a utilização, aquisição, implantação e eliminação de dados. Sei que o Regulamento Geral sobre a Proteção de Dados (RGPD) está em vigor na Europa e que há algumas considerações sobre esta lei. Trata-se de peças legislativas importantes para ajudar os indivíduos a terem mais controlo sobre si próprios.
Se olharmos realmente para o futuro, se olharmos para o facto de que as nossas economias estão a tornar-se cada vez mais digitalizadas e que a moeda são os dados, então os meus dados pessoais devem ser valiosos para mim, e não apenas para as empresas de redes sociais, telcos ou bancos. Eventualmente, deveríamos começar a pensar em algum tipo de recompensa partilhada a este respeito. É altura de começar a lançar as bases para o futuro. As infraestruturas de dados individuais tornar-se-ão, com o tempo, cada vez mais importantes.
“Estamos num ponto de consciência em que podemos exercer pressão suficiente sobre os líderes políticos e empresariais para que façam algo que nos beneficie a todos.”
Penso que no seio da administração norte-americana existem diferentes posições sobre a forma de regulamentar a IA; uma mais conservadora, com tendência para a regulamentação europeia, e outra mais liberal. O que nos pode dizer sobre isto – há uma que predomina sobre a outra?
Há pessoas sérias no governo dos EUA que estão muito interessadas em criar algumas barreiras legislativas sobre o assunto. A forma como o faremos será diferente da forma como é feito na Europa. O que não prevejo é que os EUA façam algo semelhante à UE em termos de abrangência. O que eu vejo, no entanto, é uma abordagem de compilação do que estamos atualmente a analisar em termos de infraestrutura digital.
Mais uma vez, esta é apenas a minha opinião pessoal, mas o meu palpite baseia-se num conhecimento profundo do funcionamento do aparelho político dos EUA. Neste sentido, olhando para o passado recente, penso que vamos provavelmente ter uma progressão de pequenas vitórias que terminarão com regulamentação.
Falando de utilizações responsáveis da IA, surge a palavra ética. É possível garantir uma IA ética atualmente?
Sim, é possível, embora dependa da definição de ética. Para mim, é uma questão de consenso social. O que é ético em Portugal pode ou não ser ético nos EUA, pode ou não ser ético no Irão. Temos de aceitar que estas dinâmicas e desacordos existem noutras áreas da nossa vida e, obviamente, também aqui. Sou muito prático e realista em relação a estas questões.
“Os Estados Unidos estão muito interessados em criar algumas barreiras legislativas. A forma como o fizermos será diferente da forma como o fazem na Europa. O que não prevejo é que os EUA façam algo semelhante à UE em termos de abrangência”.
Embora a tecnologia em si seja neutra, os dados com base nos quais os algoritmos de IA são treinados não o são. Como é que os reguladores e os intervenientes tecnológicos podem ajudar a evitar a parcialidade, a ilegalidade ou o enviesamento?
Talvez eu seja pessimista no final do dia, mas não vejo uma harmonia global. Penso que é muito importante que as nações que partilham as mesmas ideias continuem a unir-se nesta questão. Penso também que é crucial estender os ramos de oliveira aos que têm ideologias díspares e começar pelos pontos comuns. Não estaremos de acordo em certas questões tão fundamentais como a religião, os símbolos ou a identidade central, mas podemos estar de acordo em questões que afetam as operações comerciais. Se nos conseguirmos unir a estes níveis e utilizarmos a IA para nos ajudar a fazê-lo, talvez tenhamos uma oportunidade.
Convido-o a olhar para o futuro próximo, para onde vai a IA, o que devemos esperar?
Gostaria de vos dar uma resposta muito melhor, mas só posso dizer-vos para onde espero que ela vá. É importante que encontremos uma forma de ultrapassar esta falta de capacidade explicativa. Temos de abordar e aumentar a literacia digital das nossas sociedades. Espero que comecemos a utilizar a IA a partir da educação, ensinando às pessoas mais sobre o que é e o que se pode tornar. Penso que, para já, isto será suficiente.
Registaram-se progressos muito significativos e continuaremos a assistir ao desenvolvimento da automatização. O ritmo vai acelerar devido ao grande impulso tecnológico, mas temos de mudar a narrativa. Tem de ser mais matizada, ponderada e sensata, para bem das pessoas. Não podemos continuar a assustar as pessoas.