Colab Enterprise da Google Cloud para ajudar a afinar os LLM

Na sua conferência Cloud Next, a empresa introduziu novas funcionalidades de MLOps avançados para IA generativa e lançou o Ray on Vertex AI para dimensionar eficientemente cargas de trabalho de IA.

Por Anirban Ghoshal

A Google Cloud lançou na terça-feira o Colab Enterprise, com o objetivo de ajudar os data scientists a personalizar e ajustar grandes modelos de linguagem (LLMs) para suas empresas.

Atualmente, em preview pública, com disponibilização ao público prevista para setembro, o Colab Enterprise assenta no Colab, o notebook Jupyter baseado na Google Cloud. O Colab tem atualmente sete milhões de utilizadores ativos mensais, de acordo com a Google.

“Com a tecnologia Vertex Al, o Colab Enterprise dá acesso a tudo o que a plataforma tem para oferecer, desde o Model Garden e uma gama de ferramentas de ajuste a recursos de computação flexíveis e tipos de máquinas, até ferramentas de ciência de dados e MLOps”, disse a empresa em comunicado.

O Colab Enterprise oferece também uma experiência de notebook para o BigQuery Studio – um novo espaço de trabalho interativo para descobrir, explorar, analisar e prever dados no BigQuery.

Esta funcionalidade, segundo a Google, permite que os utilizadores empresariais comecem um notebook no BigQuery para preparar os dados e depois continuem, no mesmo notebook, no Vertex AI para a infraestrutura e ferramentas de IA.

“As equipas podem aceder diretamente aos dados onde quer que estejam a trabalhar. Com a capacidade de partilhar notebooks entre membros da equipa e ambientes, o Colab Enterprise pode eliminar eficazmente as fronteiras entre os dados e as cargas de trabalho de IA”, afirmou a empresa.

A Google também está a expandir o suporte para as suas frameworks de código aberto com a inclusão do Ray no Vertex AI. O Ray será adicionado aos frameworks suportados existentes, como Tensorflow, PyTorch, scikit-learn e XGBoost.

O uso do Ray, de acordo com a Google, ajudará as empresas a reduzir custos e aumentar a produtividade.

O suporte do Ray no Vertex AI permitirá que os data scientists criem um cluster Ray e o conectem ao notebook Colab Enterprise para dimensionar um trabalho de treino de modelo, disse a Google, acrescentando que os modelos de código aberto, como Llama 2, Dolly ou Falcon, podem ser abertos dentro do ambiente de notebook de data science gerido para ajuste e prototipagem.

Melhoria dos MLOps para IA generativa

A Google está ainda a introduzir novas capacidades MLOps direcionadas para a IA generativa. “Estamos também a introduzir um novo método de afinação para o Imagen, chamado Style Tuning, para que as empresas possam criar imagens alinhadas com as diretrizes específicas da sua marca ou outras necessidades criativas, com apenas 10 imagens de referência necessárias”, disse a empresa, acrescentando que já estava a disponibilizar a afinação supervisionada para o PaLM 2 Text.

Outras características incluem duas novas funcionalidades – Automatic Metrics e Automatic Side by Side – que promovem a interação e a melhoria contínuas dos modelos de aprendizagem automática, permitindo que as empresas avaliem a qualidade dos seus modelos de ML.

Enquanto o Automatic Metric avalia um modelo com base numa tarefa e num conjunto de dados definidos, o Automatic Side by Side utiliza um modelo de grandes dimensões para avaliar os resultados de vários modelos que estão a ser testados.

O Google Cloud também está a adicionar uma nova geração do Vertex AI Feature Store para ajudar as empresas a evitar a duplicação de dados e a preservar as políticas de acesso aos dados.

Construído no BigQuery, o novo Feature Store suportará, de forma nativa, o tipo de dados de incorporação de vetores para facilitar o acesso a dados não estruturados em tempo real, disse a empresa.




Deixe um comentário

O seu email não será publicado