Remy, produtor de algoritmos

No MIT, investigadores criaram um sistema para desenvolver algoritmos de rede capazes de resolver situações de congestionamento. Os resultados impressionaram a equipa de especialistas.

Num computador de oitenta núcleos do MIT, uma equipa de cientistas desenvolveu uma ferramenta capaz de tornar as redes significativamente mais rápidas: apenas produzindo melhores algoritmos. O sistema, chamado Remy, gera os seus próprios algoritmos para implementação do protocolo TCP (Transmission Control Protocol), matriz usada para evitar o congestionamento na maioria das redes.

Os algoritmos produzidos são diferentes de qualquer um desenvolvido por humanos, e até agora eles parecem funcionar muito melhor, de acordo com os investigadores. Numa rede simulada, duplicaram o débito da mesma.

O Remy não foi desenhado para correr em PCs e servidores individuais. Mas um dia ele poderá ser usado para desenvolver algoritmos melhores destinados a esses sistemas, prevê Hari Balakrishnan, o professor em engenharia eléctrica e ciência da computação no MIT.

Por enquanto, o sistema está a produzir milhões de possíveis algoritmos e testá-los em redes simuladas para descobrir o melhor possível face a determinado objectivo. As redes IP (Internet Protocol) não ditam a velocidade com a qual cada computador conectado envia pacotes, ou mantém a transmissão depois de uma rede se tornar congestionada.

Em vez disso, cada sistema toma as suas próprias decisões usando uma implantação da matriz TCP. Cada versão do TCP usa o seu próprio algoritmo para determinar a melhor forma de agir em diferentes condições.

Para os computadores a tarefa não é nada fácil. Há tantas variáveis envolvidas e as condições da rede mudam constantemente. Chegar ao algoritmo mais eficiente requer mais do que a força bruta e “ingénua” da computação força bruta, diz o investigador.

Descobrir como partilhar uma rede requer escolhas estratégicas, semelhantes à dos ciclistas em corridas de longo curso: como assumir a liderança ou cooperar com outro ciclista, explica o colega de Balakrishnan, o estudante Keith Winstein.

“Há muitos computadores diferentes, e todos querem deixar seus utilizadores navegarem na Internet. Ainda assim eles têm de cooperar para partilhar a rede”, afirma Winstein.

Até agora, os algoritmos têm sido desenvolvidos por humanos, disse ele. No entanto, o Remy pode fazer coisas que os programadores humanos não têm sido capazes de atingir, considera Balakrishnan.

Por um lado, os actuais algoritmos TCP usam apenas um punhado de regras sobre a forma como um computador deve responder a problemas de desempenho de rede. Podem incluir aspectos como a diminuição da taxa de transmissão quando a percentagem de pacotes perdidos passa algum limite.

Remy pode criar algoritmos com mais de 150 regras, de acordo com os investigadores. Para criar um novo algoritmo usando sistema, Balakrishnan e Winstein introduzem um conjunto de requisitos e depois deixam o sistema criar candidatos de algoritmos – testados depois face a software capaz de simular uma ampla gama de condições de rede.

O sistema utiliza elementos de aprendizagem de máquina para determinar qual o algoritmo que potencialmente fará o melhor trabalho. Conforme testa os algoritmos, o Remy concentra-se em situações nas quais uma pequena alteração nas condições da rede pode levar a uma grande mudança no desempenho, em vez de situações nas quais a rede é mais previsível.

(Stephen Lawson, IDG News Service)




Deixe um comentário

O seu email não será publicado