Especialistas debatem desafios na memória

Os desempenhos de computação na ordem da exascala dependem da resolução de vários problemas naquela área.

Durante a conferência SC13, um painel de especialistas disse que a solução para os problemas colocados pela tecnologia de memória moderno serão um elemento chave para alcançar níveis de desempenho de exascala nos supercomputadores. Mas persiste a falta de acordo sobre o caminho a seguir.

Moderado por Richard Murphy, um arquitecto sénior de sistemas de memória da Micron , o painel incluiu especialistas da NVIDIA , da ARM, da IBM, da Intel e da Notre Dame. A tecnologia de memória tem ainda de evoluir para suportar desempenhos de exaflop – mil petaflops, perto de 30 vezes mais rápido do que o actual supercomputador mais rápido.

E para alguns dos participantes no painel as tendências não são todas positivas. Peter Kogge, um professor de ciência da computação na Notre Dame, diz que o crescimento da densidade memória por bloco semicondutor desacelerou muito nos últimos anos: deixou de crescer ao ritmo de quatro vezes, passando a duplicar a cada três anos.

Para o responsável da Intel, Shekhar Borkar, a ideia de alcançar um desempenho de exascala deverá exigir o uso da tecnologia de memória mais correcta. E o mesmo lembra que só a DRAM e a NAND estão suficientemente maduras.

Mais tecnologias de ponta, como a memória resistiva e a STT -RAM, oferecem densidades e desempenhos insuficientes, disse. O problema está nos detalhes, considera este especialista.

Complexidade de fabrico é importante

A cada vez maior complexidade na produção de memória fabricação está a ser uma complicação adicional segundo Troy Manning, director de sistemas avançados de memória da Micron. “A única coisa que me impressiona, estando no negócio de memória há mais de 20 anos, é o facto de quando eu comecei na memória, uma fábrica custava algumas centenas de milhões de dólares e vendíamos as nossas peças de memória por dois ou três dólares”, disse.

“Hoje, uma fábrica de vanguarda pode custar cinco mil milhões de dólares e ainda estamos a vender as nossas peças de memória por dois ou três dólares”, lembra. Além do mais, segundo Manning, os clientes procuram cada vez mais manter as suas despesas sob controlo, e ao mesmo tempo, exigem mais e melhor memória.

Os participantes mostraram-se divididos sobre os benefícios de um maior integração de memória no hardware de computação. O engenheiro de investigação da ARM, Andreas Hansson, argumentou que a forma mais produtiva seria uma abordagem mais holística para a concepção do sistema –  integrando a memória, interligações e componentes de cálculo.

“Acho que o elemento chave não está na memória, está no sistema. Por isso, o mais importante é… a solução global. Portanto, pode haver algumas grandes e fantásticas as soluções de memória, ou algumas soluções realmente fantásticas de CPU, mas se não projectá-las juntas… podemos acabar com algo menos comparável “, disse ele.

Kogge disse que durante uma recente colaboração num projecto Big Data, viu algumas evidências de que uma maior integração poderia ser a solução. Mas isso não foi consensual.

(Jon Gold, Network World)




Deixe um comentário

O seu email não será publicado