A inteligência artificial tem um passado manchado quando se trata de diversidade, equidade e inclusão, mas ferramentas mais cuidadosamente trabalhadas podem identificar, em vez de perpetuar, o preconceito no local de trabalho.

Por Linda Rosencrance
À medida que a inteligência artificial (IA) se vai introduzindo nas empresas, aquelas que têm registado maior sucesso são as que estão a adotar uma abordagem holística da IA, de acordo com o ‘Inquérito de IA às Empresas 2022’, da PwC. Compreendendo 36% dos inquiridos, estes “líderes da IA”, como a PwC lhes chama, estão a utilizar a IA para visar a transformação empresarial, a melhoria da tomada de decisões e a modernização dos sistemas, em simultâneo, em vez de abordar uma área de cada vez.
Estas e outras organizações estão também a começar a utilizar a IA para resolver decisões empresariais mais complexas em torno da diversidade, equidade e inclusão (DEI). De facto, 46% dos líderes da IA estão a utilizar a IA para tomar decisões de recursos humanos que incluem a DEI, de acordo com a PwC.
“As empresas estão a utilizar a IA para recrutamento e contratação, bem como na retenção e envolvimento”, disse Bret Greenstein, parceiro da PwC para análise de dados e IA e coautor do relatório.
O passado nocivo da IA na contratação
Embora muitas empresas estejam a experimentar a IA como uma ferramenta para avaliar a DEI nestas áreas, Greenstein observou que não estão a delegar totalmente esses processos à IA, mas sim a aumentá-los com a IA. Parte da razão da sua cautela é que, no passado, a IA fazia frequentemente mais mal do que bem em termos de DEI no local de trabalho, uma vez que os algoritmos tendenciosos discriminavam as mulheres e os candidatos a emprego não brancos.
“Tem havido muitas notícias sobre o impacto do preconceito nos algoritmos que procuram identificar talentos”, disse Greenstein. Por exemplo, em 2018, a Amazon foi forçada a eliminar a sua ferramenta secreta de recrutamento baseada em IA, depois de o gigante da tecnologia se ter apercebido de que era tendenciosa contra as mulheres. E um estudo de 2019 conduzido pela Harvard Business Review concluiu que os algoritmos de recrutamento por IA introduziram um viés anti negro no processo.
O enviesamento de IA é causado, muitas vezes inconscientemente, pelas pessoas que concebem modelos de IA e interpretam os resultados. Se uma IA for treinada com dados tendenciosos, tomará, por sua vez, decisões tendenciosas. Por exemplo, se uma empresa tiver contratado no passado, na sua maioria, engenheiros de software brancos, homens com licenciaturas de certas universidades, um algoritmo de recrutamento pode favorecer candidatos com perfis semelhantes para posições de engenharia em aberto.
À medida que os criadores de IA se tornam mais conscientes do potencial enviesamento que está a ser incorporado no recrutamento e contratação de software, eles podem trabalhar para contrariar isso. De facto, 45% das organizações que a PwC identifica como líderes de IA afirmaram ter planos para abordar questões de equidade nos seus sistemas de IA em 2022.
“Penso que a utilização da IA [para DEI] passará da experiência para a produção para o recrutamento e contratação à medida que as pessoas compreenderem e identificarem melhor os preconceitos e compreenderem como avaliar melhor o desempenho futuro”, disse Greenstein.
Utilização da IA para destacar o enviesamento
De acordo com a Gartner, 62% dos líderes de recursos humanos relatam a utilização de dados da DEI como um contributo para processos de recrutamento e gestão de desempenho. No entanto, poucos estão a utilizá-los para influenciar eficazmente as decisões dos líderes em torno dos trabalhadores. Para criar uma força de trabalho diversificada, equitativa e inclusiva, os líderes de RH têm de integrar melhor as estratégias de dados da DEI nas práticas quotidianas dos funcionários, disse Emily Strother, diretora sénior e investigadora da Gartner.
As organizações estão cada vez mais a incorporar tecnologia de IA nos seus processos de aquisição e gestão de talentos para destacar potenciais preconceitos, disse Strother. “Em particular, vemos isto na forma como [eles] lidam com o recrutamento e como [eles] trabalham com a gestão do desempenho”. Este é um dos lugares em que as organizações estão mais preocupadas com os preconceitos, mas a IA pode ajudar”.
Por exemplo, algumas empresas estão a utilizar ferramentas alimentadas por IA para identificar linguagem tendenciosa de gestores de recrutamento que possa ser utilizada durante as entrevistas aos candidatos. As medidas corretivas poderiam incluir a criação de lembretes tendenciosos durante todo o processo de entrevista ou alertar os gestores quando a sua língua é tendenciosa ou tem um julgamento injusto, disse Strother.
Os preconceitos dos gestores também podem surgir quando se trata de estabelecer objetivos para os funcionários. A IA pode ajudar comparando os objetivos dos empregados com outros com o mesmo mandato e depois alertando os gestores se estes atribuírem consistentemente menos ou mais objetivos importantes a certos trabalhadores.
“Isto ajuda os gestores a perceberem alguns dos seus preconceitos involuntários na definição de objetivos e ajuda-os a corrigir os seus comportamentos”, disse Strother.
A IA pode também ajudar as organizações a assegurar que os seus cargos sejam tão livres de preconceitos quanto possível. “Vemos organizações que utilizam IA para rever alguns dos sites de emprego, tais como o LinkedIn ou Indeed, para assegurar que a linguagem que estão a utilizar quando publicam [empregos em aberto] é exata ou em linha com as competências
[necessárias para o emprego]
versus qualquer coisa que possa [indicar enviesamento]”, disse Strother.
Kay Formanek, fundador e CEO da empresa de educação para a diversidade KAY Diversity and Performance e autor de ‘Beyond D&I: Leading Diversity with Purpose and Inclusiveness’, dá um exemplo. “Se uma empresa diz: ‘Estamos à procura de um líder motivado, estamos à procura de alguém que seja ambicioso, estamos à procura de alguém que vá produzir resultados’, chamamos a isso um quadro de trabalho masculino, e a investigação tem mostrado que as mulheres tenderão a não se candidatar”, mesmo quando estão bem qualificadas para o trabalho, disse.
De acordo com Formanek, as mulheres estão à procura de uma linguagem mais feminina, como por exemplo: “Estamos à procura de um líder que, juntamente com a equipa, apoie a agenda de crescimento do negócio. Estamos à procura de alguém que crie uma equipa”.
A IA pode ajudar as empresas a remover qualquer linguagem tendenciosa dos seus postos de trabalho e enviar alertas quando a linguagem pode ser tendenciosa em termos de género ou alinhada com conjuntos de competências específicas que podem excluir candidatos qualificados de origens mais diversas ou sub-representadas, de acordo com Strother.
“Isso é muito importante”, disse Formanek. “Porque se não o fizeres, vais afastar pessoas que são muito importantes para a tua diversidade”.
Utilização de IA para identificar funcionários desintegrados
Uma área em que o Greenstein da PwC vê um grande potencial para a IA está na retenção de trabalhadores. A retenção de trabalhadores é a chave para o sucesso de um negócio, disse. Os fatores que afastam as pessoas de um negócio têm muito a ver com os trabalhadores que se sentem marginalizados, desconectados, não envolvidos.
As empresas podem utilizar a IA para identificar departamentos ou papéis com elevado risco de desgaste, trabalhadores insatisfeitos ou não empenhados, e mesmo pessoas que se sentem isoladas por estarem a trabalhar remotamente, disse Greenstein.
“Geralmente, o trabalho à distância tem tido um maior impacto em diversos trabalhadores, porque existem graus mais elevados de isolamento. Menos ligação pode ser mais prejudicial na maioria dos casos”, disse.
As ferramentas de IA podem ajudar os gestores a compreender se alguns empregados estão mais em risco do que outros, disse Greenstein. “Os gestores podem utilizar a IA para procurar indicadores nos dados de como as pessoas interagem para identificar o grau de isolamento que as pessoas sentem, bem como para procurar gatilhos para determinar quando as pessoas parecem estar mais desconectadas”.
Embora ainda não existam ferramentas padrão para este fim, a PwC está a ver clientes a identificar os dados que consideram mais importantes (viagens, localizações, calendário, desempenho, compensação, carga de trabalho, etc.) para explorar o impacto que o isolamento tem tido no envolvimento e, em última análise, no desgaste, disse Greenstein. Integrando os dados potencialmente relevantes juntos em armazéns de dados na cloud, as empresas estão a utilizar na sua maioria ferramentas analíticas nativas de clouds, por medida, para procurar correlação e causalidade, criar modelos preditivos, e determinar as melhores ações, disse Greenstein.
Uma vez identificadas as pessoas que se sentem desconectadas ou marginalizadas, cabe às empresas o ónus de tomar medidas para que esses trabalhadores se sintam respeitados e incluídos. Mas saber quem se sente excluído é um primeiro passo importante.
A dinâmica de desgaste e aquisição de talentos mudou drasticamente nos últimos dois anos e continua a evoluir, pelo que as empresas que têm um controlo sobre os seus dados – e os funcionários com capacidade analítica para os interpretar – têm uma vantagem, disse Greenstein. “Penso que estas ferramentas podem ajudar-nos a ser melhores como gestores e como parceiros e como pares para o nosso pessoal”.