A OpenAI anuncia que a nova versão do seu popular chatbot de IA generativa incorpora funcionalidades de segurança e privacidade de nível empresarial

Por Lucas Mearian
A OpenAI apresentou hoje o ChatGPT Enterprise, uma versão do seu serviço de inteligência artificial (IA) generativa que permite às empresas decidir como o modelo é treinado e durante quanto tempo pode armazenar os dados empresariais utilizados para o efeito.
O novo serviço ChatGPT também oferece segurança e privacidade melhoradas através da utilização de encriptação para dados em repouso (AES-256) e em trânsito (TLS 1.2+) e de um único sign-on SAML (Security Assertion Markup Language) para autenticação empresarial.
A OpenAI também aumentou a largura de banda para que as organizações se liguem ao GPT-4, o modelo de linguagem grande (LLM) no qual o ChatGPT se baseia e é treinado. A empresa planeia oferecer acesso “ilimitado e de alta velocidade” ao LLM, bem como janelas contextuais de 32k tokens de entrada e acompanhamentos quatro vezes mais longos do que os anteriormente disponíveis (um token tem aproximadamente 4 caracteres ou 0,75 palavras). Como ponto de referência, as obras completas de Shakespeare têm cerca de 900.000 palavras ou 1,2 milhões de tokens, segundo a OpenAI).
“Isto marca mais um passo em direção a um assistente de IA para o trabalho que ajuda em qualquer tarefa, protege os dados da sua empresa e é personalizado para a sua organização”, afirmou a OpenAI, numa publicação no blogue. “Você é dono e senhor dos dados da sua empresa no ChatGPT Enterprise. Não treinamos com os seus dados comerciais ou conversas, e os nossos modelos não aprendem com a sua utilização. O ChatGPT Enterprise elimina todos os limites de utilização e funciona até duas vezes mais rápido.”
A OpenAI também oferece uma “ferramenta de tokenização” através da qual os utilizadores podem ver quantos tokens um texto produz.
A startup com sede em São Francisco também disse que a versão Enterprise do ChatGPT tem uma nova consola de administração com gestão de membros em massa, verificação de domínios e um plugin de dashboard analítico para insights de utilização, anteriormente conhecido como Code Interpreter.
“Esse recurso permite que equipes técnicas e não técnicas analisem informações em segundos, seja para pesquisadores financeiros usando dados de mercado, profissionais de marketing analisando resultados de pesquisas ou cientistas de dados depurando um script ETL (ETL significa extrair, transformar e carregar)”.
O ChatGPT e outros modelos de IA generativa foram treinados para compreender a linguagem natural e o código e podem fornecer resultados de texto em resposta a entradas ou consultas do utilizador. As entradas para os GPTs também são chamadas de prompts. A conceção de prompts é essencialmente a forma como os utilizadores “programam” um modelo de GPT, normalmente fornecendo instruções ou alguns exemplos de como completar com sucesso uma tarefa; o processo é conhecido como engenharia de prompts.
Os GPTs podem ser usados numa grande variedade de tarefas, como a geração de conteúdos ou códigos, resumo, conversação, escrita criativa e muitas outras.
A maioria dos LLMs, como o GPT-4 da OpenAI, são pré-treinados como motores de previsão de palavras ou conteúdos futuros. E, embora os chatbots baseados em LLM tenham produzido a sua quota-parte de erros, os LLM pré-treinados funcionam relativamente bem na produção de conteúdos maioritariamente precisos e convincentes que, no mínimo, podem ser utilizados como ponto de partida para outras tarefas.
No entanto, muitos sectores exigem LLMs mais personalizados que compreendam o jargão específico e produzam conteúdos adaptados aos seus utilizadores. Por exemplo, os programas de aprendizagem ao longo da vida para o sector da saúde podem ter de processar e interpretar registos de saúde eletrónicos (EHR), sugerir tratamentos ou criar um resumo dos cuidados prestados ao doente com base em notas médicas ou gravações de voz. Um LLM direcionado para o sector dos serviços financeiros pode resumir resultados comerciais, criar transcrições de reuniões e efetuar análises de fraude para proteger os consumidores.
Os clientes da OpenAI poderão alargar de forma segura os conhecimentos do ChatGPT com os dados de uma empresa, ligando-o às aplicações que já utilizam, mas, segundo um porta-voz, essa funcionalidade ainda está em desenvolvimento. É por isso que, incluídos no preço, a OpenAI está a oferecer aos clientes créditos gratuitos para utilizar as suas API, caso necessitem de alargar a OpenAI a uma solução totalmente personalizada para a sua organização.
O ChatGPT Enterprise já está disponível. A OpenAI não revelou quaisquer preços, que dependerão das necessidades da empresa.