O direito à mentira

Do reconhecimento facial ao reconhecimento emocional ou de como a mentira pode ter os dias contados, segundo Norberto Andrade, do Berkeley Center for Law & Technology School (University of California).

Norberto Andrade - DRPerceber se alguém está triste, alegre ou zangado, pelo modo como torce o nariz ou franze o sobrolho, é fácil e natural para o ser humano. A verdade é que somos bons a “ler” caras. Um estudo recente, conduzido por Aleix Martinez e colegas da Universidade Estadual de Ohio (EUA), revela que o ser humano é capaz de reconhecer com fiabilidade mais de 20 expressões faciais e correspondentes estados anímicos.

Até esta data pensava-se que o ser humano só conseguia distinguir seis emoções de base: alegria, tristeza, medo, raiva, surpresa e nojo. Esse número é agora triplicado, provando-se com este estudo que o ser humano distingue não apenas as seis emoções de base mas um vasto leque de emoções compósitas, tais como “surpresa alegre” ou “medo zangado”. O reconhecimento do tom da voz e a identificação de expressões faciais são tarefas do domínio da percepção em que, tradicionalmente, somos melhores que os computadores. Ou, melhor, éramos!

O avanço tecnológico parece não ter limites e vários têm sido os projectos empenhados em melhorar o reconhecimento e descodificação de expressões faciais através de processos computacionais. O próprio estudo de Martinez, ao ser traduzido num programa informático de reconhecimento facial, alcançou um índice de precisão na ordem dos 96,9% na identificação das seis emoções de base, e 76,9% no caso das emoções compósitas.

A automatização e computorização destes processos cognitivos, antes apanágio do humano, baseiam-se no denominado “Facial Action Coding System” (FACS). Trata-se de um método desenvolvido por Paul Elkman, especialista de renome em micro-expressões faciais, durante os anos 70 e 80. Este método, usado ainda hoje no desenho e construção de personagens de filmes de animação, decompõe expressões emocionais nos seus elementos faciais, ou seja, num conjunto específico de músculos e movimentações da face, tais como o arregalar dos olhos, a elevação das maçãs do rosto, o descair do lábio inferior, entre vários outros.

Reconhecimento facial e emocional nocivo
O objectivo de muitos destes estudos cognitivos através de processos computacionais vai além da mera associação de expressões faciais a emoções. Através dessa associação, a ideia consiste em identificar os genes, os compostos químicos e os circuitos neuronais que regem a produção de emoções pelo cérebro. O mapeamento, e com ele a melhor compreensão, de como estas emoções se produzem ao nível cerebral poderão ser determinantes no diagnóstico de doenças como o autismo ou a síndrome pós-traumática, nas quais o reconhecimento da expressão facial das emoções é difícil de realizar.

Mas, para além das indubitáveis aplicações benéficas desta tecnologia no campo da investigação médica, o reconhecimento facial e emocional poderá revelar-se altamente nocivo quando comercializado, distribuído pelas massas e aplicado indiscriminadamente em outros campos, contextos e situações. De facto, estas tecnologias parecem estar prestes a sair do laboratório para a vida real.

Marian Bartlett, da Universidade de São Diego (EUA), e a sua equipa de investigação, têm tomado a dianteira nesta transição. Tendo como base um sistema de computação visual acompanhado de algoritmos “machine learning”, Bartlett fundou com outros colegas a empresa Emotient, através da qual está a desenvolver uma aplicação para os novos óculos da Google (os chamados Google Glasses) que em breve entrarão no mercado. Tal aplicação, de nome Glassware, permite a identificação de emoções como alegria, tristeza, raiva, repugnância e até desprezo, através do reconhecimento de expressões faciais.

A app, ainda em fase de teste, faz uma leitura em tempo real das expressões emocionais das pessoas no campo de visão do utilizador. O plano agora é avançar com a comercialização desta aplicação, tendo como primeiro alvo vendedores interessados em avaliar e medir o estado anímico e respectiva reacção emocional dos seus clientes. Começando com vendedores, prevê-se que no futuro qualquer utilizador dos Google Glass possa usar esta nova tecnologia.

O reconhecimento facial e emocional poderá revelar-se altamente nocivo quando comercializado, distribuído pelas massas e aplicado indiscriminadamente em outros campos, contextos e situações. De facto, estas tecnologias parecem estar prestes a sair do laboratório para a vida real.

Para além do reconhecimento de emoções específicas através da análise de padrões de movimentos faciais, uma outra (e desconcertante) aplicação desta nova tecnologia, testada pela equipa de Bartlett, é a que permite distinguir as expressões emocionais falsas das genuínas. A ideia por detrás desta nova aplicação é que as falsas e as verdadeiras expressões de emoções envolvem diferentes mapeamentos cerebrais. Enquanto as expressões emocionais verdadeiras são executadas pelo cérebro e a espinha dorsal como se de um reflexo se tratasse; as expressões falsas requerem um pensamento consciente que envolve regiões de coordenação motora do córtex cerebral.

Como resultado, os movimentos faciais representativos de emoções verdadeiras e falsas acabam por ser diferentes o suficiente para que um sistema de computação visual os consiga detectar (e distinguir) e o ser humano não. Ao ser testado, o sistema desenvolvido por Marian Bartlett conseguiu – em tempo real – identificar 20 dos 46 movimentos faciais descritos no FACS. E, mais impressionante ainda, o sistema não só identifica como também aprende com os diferentes padrões de movimentos faciais, distinguindo as expressões autênticas das falsas com um índice de precisão de 85%.

Por outras palavras, Bartlett incorporou um detector de mentiras à tecnologia de reconhecimento facial. Esta tecnologia promete apanhar em flagrante todo aquele que tente simular determinada emoção ou sentimento. Do reconhecimento facial passámos ao reconhecimento emocional, para agora alcançar o reconhecimento daquilo que é autêntico ou não, e tudo realizado exclusivamente por computadores. Adicionemos agora ao reconhecimento facial o reconhecimento de voz e ficamos com o pacote completo de deteção de mentiras. Seja pela cara que fazemos, pelo tom de voz que usamos, ou por ambos, a mentira terá os dias contados.

Implicações colectivas
À luz destes recentes desenvolvimentos, não será difícil imaginar um futuro próximo no qual todos andaremos equipados com óculos que não só reconhecem caras e vozes, como também verdades e mentiras. A eventual propagação de dispositivos portáteis que analisam as nossas expressões faciais e decidem, com aval científico, sobre a sua veracidade, implicará uma revolução no modo como interagimos em sociedade. E mais, constituirá uma séria limitação à nossa autonomia individual. Comecemos pelas implicações desta tecnologia ao nível do trato social para depois analisar as implicações ao nível individual.

No plano colectivo, a “mentirinha” de ocasião, como aquela que nos leva a dizer “mas que bebé tão lindo” quando na verdade é feíssimo, ou que “a sopa está maravilhosa” quando na realidade sabe a lixívia, é muito mais que uma mentira “piedosa”, é uma instituição basilar na arte da sobrevivência, e convivência, social. Por detrás destas pequenas, mas estratégicas, “falsidades” escondem-se importantes convenções sociais.

A quase-protocolar declaração “a ver se combinamos um almoço um dia destes” quando a nossa vontade é nunca mais ver aquela pessoa na vida, ou a entusiástica interjeição “adoro o teu vestido” quando nem como pijama o vestiríamos, são na realidade elementos de cordialidade e sinais de respeito que conformam e enfeitam as nossas interações sociais. Tratam-se de “mentirinhas” toleradas e justificadas em nome da cortesia e das boas maneiras. São, na maioria das vezes, bem-intencionadas, com bom fundo e proferidas por quem apenas quer ser atencioso, respeitoso ou simplesmente simpático. É um “jogo” social em que todos participamos e com o qual nos damos bem.

No plano individual, a liberdade de faltar à verdade é uma prerrogativa essencial da nossa autonomia como seres humanos. O que esta tecnologia põe em causa é algo que vai muito para além da simples impossibilidade de mentir sem ser apanhado. Esta tecnologia representa uma agressão sem precedentes ao nosso direito à privacidade, ao nosso direito à identidade e à nossa liberdade de expressão.

A impossibilidade de reservar a “verdade” para nós, e de evitar a sua exposição na praça pública, constitui uma das mais sérias violações do nosso direito à privacidade. Ao ser possível determinar que o que dizemos e como nos exprimimos corresponde ao que efectivamente pensamos e sentimos, entraremos numa nova dimensão da violação da nossa privacidade, uma violação que ataca o mais íntimo do nosso ser: os nossos pensamentos e os nossos sentimentos.

Entraremos num processo de vigilância constante e recíproca, alimentando uma espécie de teoria da conspiração colectiva, segundo a qual actuaremos em regra com um pacto secreto que nos atém à verdade e que nos impele a desmascarar o primeiro que mentir. Esta nova tecnologia agrava ainda mais a vulnerabilidade do ser humano, tornando-o cada vez mais transparente face a autoridades governativas, a empresas que actuam no mercado, e a toda e qualquer outra pessoa com a qual interajamos, desde o nosso vizinho até ao nosso chefe. Estaremos porventura a entrar num mundo onde, por mais e melhor que o tentemos, não poderemos esconder nada de ninguém.

Permanente vigilância
Às actuais tecnologias de constante monitorização e vigilância a que estamos sujeitos nos dias de hoje, seja pelo governo na sua caça a eventuais criminosos, seja por empresas procurando impingir-nos os mais variados produtos, juntar-se-á no futuro uma nova onda de tecnologias que violarão não só a privacidade das nossas acções, como a própria privacidade das nossas emoções. Não só será impossível esconder onde vamos, o que fazemos e o que compramos, como também aquilo que sentimos e pensamos.

A inspecção permanente daquilo que exprimimos e dizemos condicionará também o modo como nos apresentamos, actuamos e queremos ser vistos pelos demais. Por outras palavras, a tecnologia “detectora de mentiras”, ao romper com a separação entre o pensar e o dizer, ao fundir os bastidores do pensamento com o palco do discurso, afectará irreversivelmente a nossa identidade. Ao não ser possível pensar uma coisa e dizer outra, a nossa identidade tornar-se-á monocromática, perdendo boa parte da sua riqueza e diversidade. Ao sermos permanentemente obrigados a exprimir e divulgar o que pensamos e sentimos, sob pena de sermos catalogados como mentirosos, deixaremos de ter a possibilidade de criar diferentes impressões e percepções nas pessoas com as quais interagimos; deixaremos, por exemplo, de poder esconder os aspectos menos agradáveis do nosso feitio ou de inflacionar os aspectos mais brilhantes e atractivos da nossa personalidade.

As consequências serão catastróficas; basta imaginar como seria uma entrevista de emprego ou um primeiro encontro romântico com esta nova geração de óculos pronta a descodificar as nossas expressões e a rastrear as nossas sensações. Ao tornarmo-nos absolutamente transparentes aos olhos dos demais, esta tecnologia irá condicionar o processo de construção da nossa identidade, impedindo-nos de usar diferentes máscaras, de nos adaptarmos a diferentes contextos, de interpretar diferentes papéis. A nossa identidade subjugar-se-á à tensão e tirania da contínua exposição e do escrutínio permanente dos nossos pensamentos e sentimentos.

Ao manter todas as nossas palavras e acções reféns de uma verdade constante e compulsiva, esta tecnologia violará também a nossa liberdade de expressão. A liberdade de nos exprimirmos da maneira que queremos inclui – por bizarro que pareça – a liberdade de exprimirmos o que verdadeiramente não pensamos nem sentimos. Está aqui em causa o direito a não sermos verdadeiros, ou melhor, a exprimir como verdade aquilo que no nosso íntimo não pensamos de verdade. Quando a expressão é constantemente monitorizada e decifrada, ainda que em abono da verdade, essa expressão poderá continuar a ser expressão, mas terá deixado de ser autenticamente livre.

Por mais que se deva defender e promover uma sociedade baseada nos valores da verdade e da transparência, há que separar as águas e entender que, ao nível individual e do trato social, demasiada verdade e transparência são prejudiciais. Há que defender um espaço para a não-verdade, ou melhor, um espaço no qual possamos viver com a nossa verdade sem ter que a expor e partilhar.

A liberdade de dissimular o que verdadeiramente pensamos ou sentimos, dizendo ou fazendo justamente o contrário, é fundamental para a preservação da nossa autonomia individual e até para o bom funcionamento da vida em sociedade.

Por mais que se deva defender e promover uma sociedade baseada nos valores da verdade e da transparência, há que separar as águas e entender que, ao nível individual e do trato social, demasiada verdade e transparência são prejudiciais.

Uma sociedade onde todas as pessoas estejam, a nível individual, privadas do poder de omitir (ou retocar) a verdade, sob pena de serem apanhadas por um exército de óculos inquisitoriais, será uma sociedade pouco menos que inabitável. O permanente confronto com uma verdade comprovável reduzirá a nossa espontaneidade, tornar-nos-á hiper-prudentes, calculistas e suspicazes, aumentando os focos de tensão e conflito com os demais.

Para além das muitas dúvidas que este processo de aferição da verdade possa levantar, ele representa não só uma perda de controlo do indivíduo sobre a informação que revela, mas uma perda de controlo sobre o modo como a revela. A aparente verdade daquilo que somos e dizemos derivará não de percepções pessoais, intuições particulares e julgamentos sociais, mas sim de cálculos complexos feitos por algoritmos e computações baseadas no modo como coloquemos a voz, torçamos o nariz para a direita ou inclinemos a boca para a esquerda. Será uma verdade mecânica e mecanizada. Corremos o risco sério de perder pouco a pouco a nossa espontânea humanidade, parecendo-nos cada vez mais com os pré-determinados algoritmos que nos observam e nos julgam.

(Texto adaptado pelo autor do seu artigo “Computers Are Getting Better Than Humans at Facial Recognition“.)




Deixe um comentário

O seu email não será publicado