Não fique muito empolgado com a inteligência artificial de leitura de emoções

As ferramentas de inteligência artificial estão agora a tentar descobrir se as pessoas estão felizes, tristes ou enojadas. A realidade pode não lhe agradar.

Por Mike Elgan

Chama-lhe “inteligência emocional artificial” – o tipo de inteligência artificial (IA) que pode agora detetar o estado emocional de um utilizador humano.

Ou melhor, será que pode?

Mais importante, deveria?

A maior parte da IA emocional baseia-se na teoria das “emoções básicas”, segundo a qual as pessoas sentem universalmente seis estados emocionais internos: felicidade, surpresa, medo, repugnância, raiva e tristeza, e podem transmitir estes estados através da expressão facial, linguagem corporal e entoação da voz.

No mundo pós-pandémico do trabalho remoto, os vendedores estão a lutar para “ler” as pessoas a quem vendem através de videochamadas. Não seria bom se o software pudesse transmitir a reação emocional da outra ponta da chamada?

Empresas como a Uniphore e a Sybill estão a trabalhar nisto. A aplicação “Q para Vendas” da Uniphore, por exemplo, processa sinais não verbais e linguagem corporal através de vídeo, entoação de voz e outros dados através de áudio, resultando num “placar de emoções”.

Fazer ligações humanas através de computadores

O próprio Zoom está a flirtar com a ideia. O Zoom em abril introduziu um teste de QI para vendas, que gera para os anfitriões de reuniões transcrições de chamadas Zoom, bem como “análise de sentimentos” – não em tempo real, mas após a reunião; a crítica foi dura.

Enquanto algumas pessoas adoram a ideia de obter ajuda da IA para ler emoções, outras odeiam a ideia de ter os seus estados emocionais julgados e transmitidos por máquinas.

A questão de saber se as ferramentas de IA de deteção de emoções devem ser utilizadas é uma questão importante com a qual muitas indústrias e o público em geral precisam de lidar.

A contratação pode beneficiar da IA emocional permitindo aos entrevistadores compreender a veracidade, sinceridade e motivação. As equipas de RH e os gestores de contratação adorariam avaliar os candidatos quanto à sua vontade de aprender e entusiasmo em juntar-se a uma empresa.

No governo e na aplicação da lei, os pedidos de inteligência artificial emocional estão também a aumentar. Os agentes de patrulha fronteiriça e os funcionários da Segurança Interna querem que a tecnologia apanhe contrabandistas e impostores. Os agentes da lei veem a IA emocional como uma ferramenta para os interrogatórios policiais.

A IA emocional tem aplicações no serviço ao cliente, avaliação de publicidade e mesmo condução segura.

É apenas uma questão de tempo até que a IA emocional apareça nas aplicações diárias de negócios, transmitindo aos funcionários os sentimentos dos outros nas chamadas e reuniões de negócios e oferecendo conselhos contínuos sobre saúde mental no trabalho.

Porque é que a IA emocional perturba as pessoas

Infelizmente, a “ciência” da deteção das emoções continua a ser uma pseudociência. O problema prático da IA de deteção de emoções, por vezes chamada de computação afetiva, é simples: as pessoas não são tão fáceis de ler. Será esse sorriso um resultado de felicidade ou de vergonha? Será que esse franzir a testa vem de um sentimento interior profundo, ou é feito de forma irónica ou em brincadeira.

Confiar na IA para detetar o estado emocional dos outros pode facilmente resultar numa falsa compreensão. Quando aplicada a tarefas consequentes, tais como contratação ou aplicação da lei, a IA pode fazer mais mal do que bem.

É também verdade que as pessoas mascaram rotineiramente o seu estado emocional, especialmente em reuniões de negócios e vendas. A IA pode detetar expressões faciais, mas não os pensamentos e sentimentos por detrás delas. Os empresários sorriem, acenam com a cabeça e franzem a cara com empatia porque é apropriado nas interações sociais, e não porque estão a revelar os seus verdadeiros sentimentos.

Por outro lado, as pessoas podem cavar fundo, encontrar a sua Meryl Streep interior e a sua emoção falsa para conseguir o emprego ou mentir à Segurança Interna. Por outras palavras, o conhecimento de que a IA emocional está a ser aplicada cria um incentivo perverso para brincar com a tecnologia.

Isto leva-nos ao maior dilema sobre a IA emocional: é ético usá-la nos negócios? As pessoas querem que as suas emoções sejam lidas e julgadas pela IA?

Em geral, as pessoas, por exemplo numa reunião de vendas, querem controlar as emoções que transmitem. Se sorrir e parecer entusiasmado e disser que estou feliz e entusiasmado com um produto, serviço ou iniciativa, quero que acreditem, que não ignorem a minha intenção de comunicação e que descubram os meus verdadeiros sentimentos sem a minha permissão.

Os vendedores devem ser capazes de ler as emoções que os potenciais clientes estão a tentar transmitir, e não as que querem manter em segredo. À medida que nos aproximamos de uma compreensão mais completa de como funciona a IA emocional, esta está a tornar-se cada vez mais uma questão de privacidade.

As pessoas têm o direito de ter emoções privadas. E é por isso que penso que a Microsoft está a emergir como líder na aplicação ética da IA emocional.

Como a Microsoft consegue isto

A Microsoft, que desenvolveu algumas tecnologias bastante avançadas de deteção de emoções, fechou-as posteriormente como parte de uma reformulação das suas políticas de ética da IA. A sua principal ferramenta, chamada Cara Azul, também pode estimar o sexo, idade e outros atributos.

Especialistas dentro e fora da empresa destacaram a falta de consenso científico sobre a definição de ‘emoções’, os desafios de como as inferências generalizam os casos de uso, regiões e demografia, e as elevadas preocupações de privacidade em torno deste tipo de capacidades”, escreveu Natasha Crampton, Directora de IA da Microsoft, num post de blogue.

A Microsoft continuará a utilizar a tecnologia de reconhecimento de emoções na sua aplicação de acessibilidade, chamada Seeing AI, para utilizadores com deficiência visual. E penso que esta é também a escolha certa. A utilização de IA para ajudar pessoas com deficiências visuais ou, por exemplo, pessoas com autismo que podem ter dificuldade em ler as emoções e reações dos outros, é um grande uso para esta tecnologia. E penso que tem um papel importante a desempenhar na próxima era de óculos de realidade aumentada”.

A Microsoft não é a única organização que promove a ética da IA emocional.

O AI Now Institute e o Brookings Institution defendem a proibição de muitos usos de inteligência artificial para a deteção de emoções. E mais de 25 organizações exigiram que o Zoom acabasse com os seus planos de utilizar a deteção de emoções no software de videoconferência da empresa.

Ainda assim, algumas empresas de software estão a avançar com estas ferramentas, e estão a encontrar clientes.

Na maioria das vezes, e por agora, o uso de ferramentas emocionais de IA pode ser mal orientado, mas na sua maioria inofensivo, desde que todos os envolvidos estejam realmente na mesma página. Mas à medida que a tecnologia melhora e a leitura da linguagem corporal e da interpretação facial se aproxima da leitura mental e da deteção de mentiras, isto pode ter sérias implicações para as empresas, governo e sociedade.

E, claro, há outro elefante na sala: o campo da computação afetiva procura também desenvolver IA de conversação que possa simular as emoções humanas. E embora alguma simulação de emoções seja necessária para o realismo, demasiadas coisas podem levar os utilizadores a acreditar que a IA é consciente ou senciente. Na verdade, esta crença já está a ocorrer em grande escala.

Globalmente, tudo isto faz parte de uma nova fase na evolução da IA e da nossa relação com a tecnologia. Embora tenhamos aprendido que pode resolver inúmeros problemas, descobrimos também que pode criar novos problemas.




Deixe um comentário

O seu email não será publicado