Responsabilidade pela ética na IA é dos executivos das empresas

80% dos inquiridos num estudo IBM apontaram para um executivo não técnico como o principal defensor da ética na IA, comparando com 15% em 2018.

Um novo estudo do IBM Institute for Business Value (IBV) revelou uma mudança radical nos responsáveis que lideram e defendem a ética na Inteligência Artificial (IA) nas organizações.  Quando questionados sobre qual a função que é primordialmente responsável pela ética na IA, 80% dos inquiridos identificaram um executivo não técnico, como o CEO, como o principal defensor da ética na IA, uma subida acentuada face aos 15% em 2018.

O estudo global* indica ainda que, apesar de um forte imperativo para o avanço para uma IA de confiança, incluindo a obtenção de um melhor desempenho em comparação com os pares em sustentabilidade, responsabilidade social e diversidade e inclusão, continua a existir um fosso entre a intenção dos líderes e ações significativas a esse respeito. O estudo revelou:

Executivos do negócio são agora vistos como a força motriz da ética na IA

  • Os CEOs (28%) – mas também os membros do Conselho de Administração (10%), Consultores Jurídicos (10%), Responsáveis de Privacidade (8%) e de Risk & Compliance (6%) são agora vistos pelos inquiridos como os que têm mais responsabilidade pela ética na IA.
  • Enquanto 66% dos inquiridos citam o CEO ou outro executivo como tendo uma forte influência na estratégia de ética da sua organização, mais de metade identifica também os membros do conselho de administração (58%) e os acionistas (53%). 

A construção de IA de confiança é percecionada como um diferenciador estratégico e as organizações estão a começar a implementar mecanismos de ética na IA.

  • Mais de três quartos dos líderes empresariais inquiridos este ano concordam que a ética na IA é importante para as suas organizações, acima dos cerca de 50% do estudo em 2018.
  • Ao mesmo tempo, 75% dos entrevistados acreditam que a ética é uma fonte de diferenciação competitiva, e mais de 67% dos inquiridos que consideram importantes a IA e a ética na IA indicam que as suas organizações superam os seus pares em termos de desempenho em sustentabilidade, responsabilidade social, e diversidade e inclusão. 
  • Muitas empresas começaram a fazer avanços. De facto, mais de metade dos inquiridos dizem que as suas organizações tomaram medidas para incorporar a ética na IA na sua atual abordagem à ética empresarial.
  • Mais de 45% dos inquiridos dizem que as suas organizações criaram mecanismos de ética específicos para a IA, como ferramentas/abordagens de avaliação de risco dos projetos de IA e processos de auditoria e revisão.

Garantir que os princípios éticos estão incorporados nas soluções de IA é uma necessidade urgente para as organizações, mas o progresso ainda é muito lento

  • Mais CEOs dos entrevistados (79%) estão agora preparados para incorporar a ética nas suas práticas de IA – acima dos 20% registados em 2018 – e mais de metade das organizações que respondem subscreveram publicamente princípios comuns da ética na IA.
  • No entanto, menos de um quarto das organizações que responderam operacionalizaram a ética na IA, e menos de 20% dos inquiridos concordaram significativamente que as práticas e ações da sua organização correspondem (ou excedem) os princípios e valores que foram declarados. 
  • 68% das organizações inquiridas reconhecem que ter um local de trabalho que seja pautado pela diversidade e inclusão é importante para mitigar o preconceito na IA, mas os resultados do estudo indicam que as equipas de IA ainda são substancialmente menos diversificadas do que as restantes equipas das organizações: com 5,5 vezes menos mulheres, 4 vezes menos indivíduos LGBT+ e 1,7 vezes menos inclusivas racialmente.

“Como muitas empresas hoje em dia usam algoritmos de IA em todo o seu negócio, potencialmente enfrentam crescentes exigências internas e externas para conceberem estes algoritmos de forma a serem justos, seguros e confiáveis; no entanto, tem havido pequenos progressos em toda a indústria na incorporação da ética nas suas práticas de IA”, disse Jesus Mantas, Global Managing Partner, IBM Consulting. “Os resultados do nosso estudo do IBV demonstram que a construção de uma IA de confiança é um imperativo de negócio e uma expetativa social, e não apenas uma questão de conformidade. Como tal, as empresas podem implementar um modelo de governação e incorporar princípios éticos ao longo de todo o ciclo de vida da IA.”

O momento para as empresas agirem é agora. Os dados do estudo sugerem que as organizações que implementem uma ampla estratégia de ética na IA integrada em todas as unidades de negócio podem ter uma vantagem competitiva ao avançarem já. O estudo fornece algumas recomendações para os líderes empresariais, incluindo:

  • Ter uma abordagem multifuncional e colaborativa – a IA ética requer uma abordagem holística, e um conjunto holístico de competências entre todas as partes envolvidas no processo de ética na IA.  Executivos de C-Suite, designers, cientistas comportamentais, cientistas de dados e engenheiros de IA têm um papel distinto a desempenhar para uma jornada de IA confiável.
  •  Estabelecer uma governança organizacional e do ciclo de vida da IA para operacionalizar a disciplina da ética na IA – ter uma abordagem holística para incentivar, gerir e governar soluções de IA em todo o ciclo de vida da IA, desde a definição da cultura certa para promover a IA de forma responsável, até às práticas, políticas e produtos.
  • Ir além da organização e estabelecer parcerias – Alargar a abordagem identificando e envolvendo os principais parceiros tecnológicos, académicos e startups focados em IA, assim como outros parceiros do ecossistema para estabelecer uma “interoperabilidade ética.”



Deixe um comentário

O seu email não será publicado