Inteligência Artificial: quando a ciência se alia à ficção

Julien Simon, Technical Evangelist na Amazon Web Services AWS, explica como evoluiu a Inteligência Artificial ao longo do tempo. 

Julien Simon, Technical Evangelist AWS

Em 1956, um pequeno grupo de cientistas de computação, liderados por John McCarthy, organizou um seminário dedicado à “Inteligência Artificial”(IA) que lançaria as bases da IA tal como a conhecemos hoje. O termo foi inventado pelo próprio McCarthy, que o definiu como o facto de “todos os aspectos da aprendizagem ou qualquer outra característica de inteligência poderem, em princípio, ser descritos de forma tão precisa que podia ser criada uma máquina para simular tal”. Nos primeiros anos, os cientistas deste grupo tentaram prever o que a IA podia ou não fazer dentro de um período de tempo razoável, mas mais tarde descobriu-se que estavam errados.

Hoje em dia, os utilizadores têm um conjunto enorme de possibilidades, desde o DIY até à Aprendizagem Automática (Machine Learning) como serviço. Um dos primeiros passos na criação de uma aplicação Aprendizagem Automática é a “extracção de recursos”. Desta forma, cientistas de dados exploram um conjunto de dados para determinar quais as variáveis que são úteis para prever ou classificar dados e quais as variáveis que não o são. Embora este processo ainda seja longo e tedioso, é agora amplamente utilizado para dados estruturados ou semi-estruturados, como o histórico da web e dados de vendas.

No entanto, não é ainda possível abordar questões mais complexas de IA, como visão computacional ou voz, porque é virtualmente impossível definir, de forma formal, as características. Por exemplo, o que faz de um gato um gato? A actual Aprendizagem Automática não aborda este tipo de problema e sente-se a necessidade de ferramentas novas.

Regresso ao futuro

Em 1957, Frank Rosenblatt concebeu uma rede neural eletromecânica, a Perceptron, a qual ele treinou para reconhecer imagens. Em 1975, Paul Werbos publicou um artigo a descrever a “retropropagação”, um algoritmo que permite a formação de redes neurais, de forma mais rápida e eficiente.  

A vantagem das redes neurais é que são capazes de se auto-organizar: quando têm um conjunto de dados suficientemente grande (digamos, imagens de entrada e etiquetas de categoria de saída), uma rede neural é capaz de aprender automaticamente a produzir as respostas corretas.

A fase de treino e a descoberta automática de características são particularmente adequadas para resolver questões informais, mas esse é o problema: assumem um grande número de operações matemáticas que tendem a crescer exponencialmente, como o tamanho do exemplo de dados com imagens em que o número de camadas aumenta significativamente. Este problema é designado por “flagelo da dimensão” e é uma das principais razões, pelas quais as redes neurais estagnaram durante décadas: a potência de computação foi simplesmente insuficiente para executá-las na escala necessária.

Em 1998, Yann Le Cun fez uma descoberta significativa quando inventou a Rede Neural Convolucional (RNC), uma nova forma de rede multicamadas (daí o termo (“deep learning”). Em resumo, as RNC são capazes de extrair recursos com eficiência, reduzindo o tamanho dos dados de entrada: tal permite que redes mais pequenas sejam utilizadas para classificação, o que reduz drasticamente o custo TI da rede.

O império neural contra-ataca

No fim da década de 2000, três eventos quase simultâneos tornaram as redes neurais em grande escala possíveis. Em primeiro lugar, conjuntos grandes de dados ficaram amplamente disponíveis. Textos, imagens, filmes, música: de repente, tudo é digitalizado e pode ser usado para formar redes neurais. Actualmente, a base de dados ImageNet integra mais de 14 milhões de imagens identificadas e investigadores em todo o mundo utilizam-na, anualmente, para competir no campo da inventividade e no desenvolvimento da melhor rede de detecção e classificação de imagens.    

Em segundo lugar, os investigadores conseguem explorar o extraordinário poder de processamento paralelo de processadores gráficos (GPU) para formar redes neurais grandes. Para se ter uma ideia, as redes neurais que venceram a competição ImageNet em 2015 e 2016 incluíam 152 e 269 camadas, respectivamente.

Por fim, e acima de tudo, a nuvem forneceu versatilidade e flexibilidade aos programadores e investigadores, permitindo-lhes que usassem o máximo de infra-estrutura necessária para treino, sem precisarem de construir, gerir ou pagar pelo seu uso a longo prazo.

Na verdade, a convergência destes três factores permitiu que as redes neurais cumprissem as promessas feitas há 60 anos: as atuais redes topo de gama são capazes de classificar imagens mais rapidamente e com maior precisão do que qualquer ser humano (menos de 3% de erro comparado com 5% dos seres humanos). E a lista de aplicações de inteligência artificial cresce um pouco mais a cada dia que passa.




Deixe um comentário

O seu email não será publicado