Apenas algumas empresas utilizam a computação periférica de forma estratégica. Isto pode mudar em breve – se os cenários de aplicação forem apresentados.

Por Richard Ruf
Diz-se que Hermann Hesse afirmou: “Tudo o que não sofreu até ao fim, volta”. Por vezes, este ditado parece aplicar-se também ao mundo das TI – ou assim se poderia pensar, tendo em conta um estudo recente da Grand View Research, que prevê que o mercado da computação periférica cresça 37,9% ao ano até 2030. A tendência parece oscilar entre a centralidade e a descentralização como um pêndulo. Primeiro o mainframe, depois a cloud – e agora a computação periférica?
O painel de especialistas da COMPUTERWOCHE [publicação alemã do grupo da Computerworld] sobre o tema “Edge Computing” estabelece, logo à partida, que esta leitura não é correta. De facto, os membros do painel sublinham que não existe um debate “Edge vs. Cloud”. Pelo contrário: a combinação de ambas as abordagens está a tornar-se a regra. Por conseguinte, não é de todo possível falar de tendências que se substituem umas às outras.
Por outro lado, o que é exatamente esse “edge” não é totalmente claro. Porque o tema é variado. “O que fazemos já foi chamado de ‘computação de nevoeiro”, explica Alexander Roth, Diretor de Marketing EMEA da Fastly, em tom de brincadeira. “O que é a computação de ponta ainda precisa de ser definido no mercado.”
A IA como motor da computação periférica
No entanto, existe um consenso de que a utilização da computação periférica ocorre, atualmente, sobretudo em casos de utilização particulares e expostos. As estratégias abrangentes e rigorosas são a exceção, uma vez que muitas empresas ainda estão demasiado ocupadas com as suas estratégias de cloud. Isto deve-se, em parte, ao facto de as empresas procurarem frequentemente casos de utilização adequados com base na tecnologia e não o contrário, afirma Marcus Rolfes, Practice Lead Network & Edge Germany na Kyndryl, que acrescenta: “Devemos inverter esta situação, ou seja, encontrar tecnologias adequadas com base no caso de utilização concreto”.
Os cenários de aplicação suportados por IA, em particular, são fatores claros para a introdução da computação periférica, como comenta Peter Schill, gestor de engenharia de sistemas da Fortinet: “Para ser franco, só teríamos o debate sobre a computação periférica dentro de alguns anos se não existissem casos de utilização que exigissem inteligências artificiais.”
Isto porque as IA são inicialmente treinadas com grandes quantidades de dados da cloud, mas devem depois ser capazes de tomar decisões rápidas e corretas localmente. Dependendo da área de aplicação, as latências que podem surgir da comunicação com uma cloud central são inaceitáveis – por exemplo, na área da condução autónoma. Aqui, os dispositivos individuais devem tomar a decisão correta em milissegundos, mesmo que a ligação à Internet seja instável ou esteja sobrecarregada.
Evitar o tráfego de dados desnecessário
Um aspeto central é, portanto, tornar geríveis os fluxos de dados cada vez maiores e, ao mesmo tempo, garantir um tempo de resposta aceitável – o que, para as empresas, também significa determinar o que significa “aceitável” em cada caso particular. “Dependendo do caso de utilização, as empresas têm de decidir quais os dados que têm realmente de ser processados em tempo real e onde podem demorar mais tempo”, explica Erwin Breneis, especialista em vendas e soluções da Juniper Networks. O objetivo é fornecer apenas os dados essenciais.
Tobias Graner, engenheiro de soluções da Akamai, sublinha igualmente que nem todos os dados têm de ser sempre devolvidos na sua totalidade para se poderem tomar decisões. “O objetivo deve ser evitar o tráfego desnecessário e encontrar um equilíbrio ideal entre a nuvem e a periferia.” Nem tudo tem de ser processado no ponto de origem, pois isso sobrecarregaria a rede global e torná-la-ia vulnerável a ataques.
A importância das normas
Para Philip Horn, Diretor de Transformação Digital e Inovação EMEA da Verizon, a questão da flexibilidade levanta também a questão tecnológica: “Só se eu tiver uma plataforma aberta, com normas abertas, é que posso excluir o bloqueio do fornecedor”, sublinha Horn e acrescenta que, com normas adequadas, partes da própria cloud podem ser trazidas diretamente para o local.
Markus Keppeler, especialista sénior em TI da IBM, também vê a importância das normas abertas e sublinha que os utilizadores também querem utilizar tecnologias na periferia que conhecem da cloud. Idealmente, as empresas querem desenvolver aplicações uma vez como uma solução de contentor e depois poder utilizá-las em todo o lado. “Já podemos tornar isto possível com as tecnologias de ponta”, explica Keppeler.
No entanto, o painel de peritos considera irrealista que venham a prevalecer normas completamente uniformes. “Há muitas abordagens boas, mas no mercado nem sequer há acordo sobre onde está exatamente o limite“, comenta Tobias Oberrauch, Senior Sales & Presales – Big Data & AI Central Europe da Eviden. “É importante garantir a transparência das normas para que não haja um efeito de bloqueio”.
Portanto, ainda existem algumas questões e desafios em aberto. No entanto, é evidente que a computação periférica desempenhará um papel cada vez mais importante no futuro panorama digital – se forem dados os cenários de aplicação adequados.