Deep Learning, Explainable AI e Compliance de AI

Por Catarina Santos Nunes, Head of Operations & Compliance da Starkdata

A regulamentação de AI prestes a entrar em vigor exige que as soluções de AI sejam explicáveis.

O problema coloca-se quando nos debruçamos sobre áreas mais complexas de AI, como o Deep Learning.

O que é Deep Learning?

O deep learning é uma sub-área da inteligência artificial (IA) que utiliza redes neurais para aprender a partir de dados. As redes neurais são inspiradas no cérebro humano e são compostas por uma série de camadas que processam informação e que são capazes de aprender padrões complexos em dados.

Existem uma série de aplicações possíveis de deep learning. São exemplos não exaustivos:

  • Reconhecimento de imagem: Identificar objetos em imagens, como pessoas, animais, carros e edifícios.
  • Reconhecimento de voz: Identificar fala humana e extrair informações (como por exemplo o sentimento associado à voz dos interlocutores)
  • Tratamento de linguagem natural: Entender e gerar linguagem humana.
  • Recomendação de produtos: Recomendação de produtos ou serviços com base em segmentação comportamental, por exemplo

De todas as áreas da inteligência Artificial, o Deep Learning é tido como a área de melhor performance, nomeadamente a nível de capacidade de previsões.

Gráfico 1 – Performance comparada de ML, Fonte: McKinsey – Leading your organization to responsible AI

É também pela sua maior complexidade, a área que mais dúvidas levanta a nível regulatório, nomeadamente porque a legislação que tem vindo a ser desenvolvida exige a “explicabilidade” das soluções de IA.

Ora, da mesma forma que não conseguimos explicar como funciona a nossa rede de neurónios para decidirmos numa determinada circunstância se vamos fazer A ou B, ou ainda, porque temos determinada percepção ou preferência (embora exista seguramente uma razão), não conseguimos fazê-lo relativamente a redes neuronais artificiais.

Apesar de existirem no sector diversos projectos para se desenvolver a chamada Explainable AI, estamos longe de conseguir explicar decisões geradas através de redes neuronais.

Como devemos então proceder relativamente a aplicações de IA que assentam em deep learning, e como fazer para garantir o seu Compliance?

Explainable AI, Responsible AI e Trusted AI 360º Toolkit

Há uma série de abordagens possíveis ao Explainable AI em redes neuronais.

De um ponto de vista mais técnico, algumas das abordagens mais comuns incluem:

Análise de input-output: Esta abordagem implica examinar a entrada e a saída da rede neuronal para compreender como é que a rede faz as suas previsões. Por exemplo, se a rede for utilizada para classificar imagens, é possível analisar as imagens classificadas correcta e incorretamente para ver que características a rede utiliza para tomar as suas decisões.

Importância das características (features): Esta abordagem envolve a medição da importância de cada caraterística nos dados de entrada para as previsões da rede. Isto pode ser feito utilizando uma variedade de técnicas, como remover características e ver como o desempenho da rede se altera, ou utilizando métodos estatísticos para medir a correlação entre cada caraterística e o resultado da rede.

Visualização do modelo: Esta abordagem envolve a criação de visualizações da rede neural para ajudar a entender como ela funciona. Por exemplo, é possível criar uma visualização dos pesos da rede para ver quais conexões entre os neurônios são mais importantes.

Análise contrafactual: Esta abordagem envolve a geração de exemplos contrafactuais, que são exemplos hipotéticos semelhantes aos dados de entrada, mas com resultados diferentes. Por exemplo, se a rede for utilizada para classificar imagens, pode gerar uma imagem contrafactual que seja semelhante à imagem de entrada, mas classificada de forma diferente. Ao examinar a imagem contrafactual, é possível obter informações sobre como a rede faz suas previsões.

Para além destas abordagens gerais, existem também vários métodos específicos que foram desenvolvidos para explicar as redes neuronais. Alguns desses métodos incluem:

Propagação de relevância por camadas (LRP): O LRP é um método para explicar o resultado de uma rede neuronal, propagando a relevância do resultado através da rede para os dados de entrada. Isto permite identificar as características de entrada que são mais importantes para a previsão da rede.

Valores SHAP: Os valores SHAP são um método para explicar as previsões de um modelo de aprendizagem automática, comparando a previsão do modelo com as previsões de um modelo mais simples. Isto permite identificar as características que são mais importantes para a previsão do modelo e quantificar o impacto de cada caraterística na previsão.

Gradientes integrados: Os gradientes integrados são um método para explicar as previsões de uma rede neural, calculando a média dos gradientes da saída da rede em relação aos dados de entrada. Isto permite identificar as características que são mais importantes para a previsão da rede.

Estas são apenas algumas das muitas abordagens possíveis. A melhor abordagem a utilizar dependerá da rede neuronal específica e da tarefa para a qual está a ser utilizada.

É importante notar que a IA explicável é um problema difícil e não existe uma solução “one size fits all”.

No entanto, as abordagens descritas acima podem ser utilizadas para obter informações sobre o funcionamento das redes neuronais e para tornar as previsões mais interpretáveis.

E parece-nos que no quadro regulatório que se tem vindo a desenhar estas serão provavelmente as formas mais seguras de abordar a exigência de explicabilidade em modelos complexos compostos por redes neuronais.

De um modo mais geral, e para áreas não exclusivamente técnicas, apontam-se como frameworks as abordagens de Responsible AI, de que já tivemos oportunidade de falar e mais recentemente o Trusted AI 360º Toolkit.

O Trusted AI 360º Toolkit é uma ferramenta desenvolvida pelo European AI Alliance (EAIA) para ajudar empresas e organizações a desenvolver e usar sistemas de IA de forma responsável. O toolkit fornece um conjunto de recursos e orientações para ajudar as organizações a abordar uma ampla gama de questões de IA responsável, incluindo:

Transparência: Como garantir que os sistemas de IA sejam transparentes e explicáveis?

Equidade: Como garantir que os sistemas de IA não sejam discriminatórios?

Privacidade: Como proteger a privacidade dos dados usados em sistemas de IA?

Segurança: Como garantir que os sistemas de IA sejam seguros e robustos?

Responsabilidade: Como garantir que os sistemas de IA sejam usados de forma ética e responsável?

O Trusted AI 360º Toolkité dividido em quatro módulos:

Módulo 1: Fundamentos da IA responsável: Este módulo fornece uma visão geral dos princípios e práticas da IA responsável.

Módulo 2: Avaliação de riscos: Este módulo ajuda as organizações a identificar e avaliar os riscos potenciais associados aos seus sistemas de IA.

Módulo 3: Mitigação de riscos: Este módulo fornece orientações para mitigar os riscos identificados no módulo 2.

Módulo 4: Gestão contínua: Este módulo fornece orientações para manter os sistemas de IA responsáveis ao longo do tempo.

O toolkit compreende guias e checklists, ferramentas de avaliação e exemplos de boas práticas que empresas e organizações devem adoptar.

Como devemos abordar estes temas a nível de AI Compliance?

Em primeiro lugar é importante verificar se a documentação do sistema de IA é clara e concisa. Esta deve incluir informações sobre o modo de funcionamento do sistema, os dados com que é treinado e as suas limitações. Uma das formas de o fazer é garantir que a solução implementada, quer seja internamente quer seja através de um prestador de serviços é acompanhada de um Data Architecture Document e que deve conter todas as informações referidas acima, bem como informação relacionada com privacidade, segurança, medidas de mitigação de risco, responsabilidade de supervisão, etc.

Para cada projecto é importante levar a cabo avaliações de impacto e risco dos datasets selecionados, bem como dos usos dos referidos datasets.

Reforçamos que a utilização das frameworks de Responsible AI e do Trusted AI 360º Toolkit facilitam muito o desenvolvimento de projectos de AI em cenários complexos como os que vimos discutindo.

Existem adicionalmente outras frameworks que podem ser usadas quer se trate de projectos internos ou de prestadores, e que podem ser utilizadas.

A decisão relativamente à framework ou frameworks a utilizar deverá ser feita numa primeira fase mais ampla no momento de desenvolvimento do Governance Interno de AI, e adicionalmente deve garantir-se projecto a projecto que as frameworks usadas são adequadas para a análise do projecto a desenvolver atendendo à sua complexidade.

Take aways

  1. Explainable AI (XAI) é importante porque nos permite compreender e confiar nos resultados obtidos através de AI.
  2. A exigência de Explicabilidade de sistemas de AI é uma constante na regulação.
  3. A Explicabilidade de sistemas complexos de AI como os que assentam na utilização de redes neuronais deve ser assegurada.
  4. A XAI é uma área de pesquisa ativa, e existem muitos métodos diferentes de XAI e, desenvolvimento, sendo provável que seja uma das áreas de maior evolução em termos de investigação.
  5. Para as empresas, podendo não ser uma área core de foco, deve estar sempre presente, de modo que se garanta o cumprimento da regulamentação de AI que está prestes a entrar em vigor.



Deixe um comentário

O seu email não será publicado