A IA generativa está a ter uma enorme procura – e a tendência está a aumentar rapidamente. No entanto, isto também exerce pressão sobre a infraestrutura de TI no centro de dados.

Por Bob Violino
A IA generativa (GenAI), ou inteligência artificial generativa (IA), desencadeou um entusiasmo sem precedentes. A Bloomberg Intelligence prevê que o mercado da GenAI cresça 42% ao ano durante a próxima década, passando de 40 mil milhões de dólares (2022) para 1,3 biliões de dólares.
Entre outras coisas, o entusiasmo garante que novos casos de utilização para a tecnologia estão a ser explorados incessantemente: “As empresas estão a pensar em quanto dinheiro devem investir em soluções de IA generativa, que produtos valem o investimento, quando é o momento certo para entrar e como podem amortecer os riscos envolvidos”, confirma Frances Karamouzis, analista da Gartner.
A IA generativa também pode apoiar as equipas de TI de muitas formas. Por exemplo, quando se trata de,
- Codificar software e scripts,
- fornecer soluções para problemas,
- automatizar processos,
- mapear processos de formação e de integração,
- criar documentação e sistemas de gestão do conhecimento, ou
- gerir e planear projetos.
A GenAI também pode transformar outras áreas da empresa, como o serviço ao cliente ou a análise de dados. No entanto, coloca-se uma questão fundamental: a sua infraestrutura é capaz de lidar com os crescentes volumes de trabalho que a IA generativa suscita?
IA generativa impulsiona requisitos do centro de dados
Para garantir que pode responder “sim” a esta pergunta, os decisores e líderes de TI devem preparar agora as suas infraestruturas e equipas para as mudanças que se avizinham. De acordo com Raul Martynek, CEO do operador de centros de dados DataBank, as aplicações de IA generativa requerem um poder de computação significativo em duas fases:
- Na formação dos modelos de linguagem de grande dimensão (LLM) que constituem a base dos sistemas de IA generativa.
- Para o funcionamento subsequente das aplicações com os LLM treinados.
“O treino de grandes modelos linguísticos requer uma computação densa. Isto envolve alimentar um sistema de redes neuronais com milhares de milhões de exemplos de discurso ou imagens e refiná-los repetidamente – até que o sistema os ‘reconheça’ tão bem como um humano”, explica o gestor, acrescentando que as redes neuronais, por sua vez, requerem clusters HPC com GPU que funcionem continuamente durante meses ou mesmo anos. “Isso pode ser implementado de forma muito mais eficiente numa infraestrutura dedicada que esteja o mais próximo possível dos conjuntos de dados de formação proprietários.”
A segunda fase é aquilo a que Martynek chama o “processo de inferência”, referindo-se à fase de utilização de aplicações reais para efetuar consultas e apresentar resultados sob a forma de dados. Ele especifica o que pensa ser necessário nesta fase: “Nesta fase operacional, é necessária uma infraestrutura geograficamente distribuída de forma ótima que possa ser escalada rapidamente e que permita o acesso às aplicações sem atrasos, se possível. É também isto que os utilizadores esperam”.
Martynek vê isto como uma mudança fundamental para os decisores de TI e as suas equipas: “Ao contrário do modelo centralizado de nuvem pública que suporta atualmente a maioria das aplicações, no futuro serão necessários centros de dados em muitos locais diferentes. A procura de capacidade de computação continuará a ser elevada, mas pode ser melhor distribuída.”
IA generativa e centro de dados sustentável
Dito isto, os decisores de rede e de TI também devem estar cientes de como a IA generativa afetará a densidade do servidor – e quais são as implicações para os requisitos de refrigeração e energia, ou iniciativas de sustentabilidade em geral.
“Também tem a ver com a frequência e a quantidade de servidores que estão a funcionar em pico de carga”, diz Francis Sideco, analista principal da Tirias Research. E acrescenta: “Empresas como a Nvidia, a AMD e a Intel tentam aumentar o desempenho a cada nova geração de chips, mantendo o consumo de energia e a produção de calor sob controlo. No entanto, os orçamentos de energia continuam a aumentar. Com o rápido crescimento das cargas de trabalho, especialmente com a GenAI em mente, acabaremos por atingir os limites”.
No entanto, de acordo com Brian Lewis, Diretor-Geral da consultora KPMG, a densidade dos servidores não tem necessariamente de aumentar por causa disto: “As inovações técnicas, como os chips sem silício, as GPU, a computação quântica e o desenvolvimento de software baseado em modelos e com consciência do hardware permitir-nos-ão tirar mais partido do hardware existente. A indústria já está a experimentar técnicas inovadoras de refrigeração líquida e locais alternativos, como os modelados no Project Natick da Microsoft, um centro de dados subaquático.”
De acordo com o analista, as técnicas convencionais de arrefecimento a ar e os sistemas de ar condicionado não são suficientes para satisfazer os requisitos de arrefecimento do hardware de elevado desempenho. Por conseguinte, as tecnologias de refrigeração alternativas, como a refrigeração líquida, estão a ganhar importância.
O diretor executivo do Databank, Martynek, vê sobretudo vantagens neste desenvolvimento: “A procura de mais potência de computação resultante da introdução da IA generativa irá, sem dúvida, impulsionar inovações no domínio da eficiência energética e das tecnologias de refrigeração. Afinal de contas, as futuras gerações de GPU não precisarão necessariamente de menos energia.”
O que as equipas de TI devem fazer agora
Os decisores de TI e as suas equipas devem preparar as suas redes e centros de dados para os novos requisitos o mais rápido possível. Recomenda-se uma abordagem passo a passo, como sugere Sieco, analista da Tirias: “Estas mudanças estão a acontecer demasiado depressa para que alguém possa estar totalmente preparado. As mudanças necessárias não são apenas para as equipas responsáveis pelas redes e centros de dados, mas para todo o ecossistema”.
Isto inclui, por exemplo, os fabricantes de chips, que também terão de responder ao aumento das cargas de trabalho e das exigências de energia, disse Sideco: “A colaboração entre todas as empresas envolvidas será essencial no futuro para acompanhar a procura.”
Outros especialistas estão muito mais confiantes quanto aos preparativos: “Em TI, estamos sempre prontos para as perturbações”, afirma Lewis, acrescentando: “A verdadeira questão é: a empresa vai investir nas mudanças necessárias? A poupança de custos continua a ser a prioridade número um na subcontratação de centros de dados.”