Os programadores podem agora integrar diretamente o ChatGPT numa série de diferentes aplicações empresariais e para utilizadores finais.

Por Jon Gold
A Microsoft está a disponibilizar o modelo ChatGPT AI como um componente para aplicações concebidas para o Serviço Azure OpenAI da empresa, abrindo o caminho para os programadores integrarem o modelo de grande linguagem num conjunto de diferentes aplicações de desenvolvimento empresarial e de utilizador final.
A Microsoft parece já ter tido vários utilizadores a trabalhar com esta integração, listando a ODP Corporation (a empresa-mãe do Office Depot e OfficeMax), o Smart Nation Digital Government Office de Singapura, e o fornecedor de software de gestão de contratos Icertis como clientes de referência.
Os programadores que utilizam o Serviço Azure OpenAI podem utilizar o ChatGPT para adicionar uma variedade de funcionalidades a aplicações, como conversas de call center, automatizar o processamento de reclamações, e até criar novos anúncios com conteúdo personalizado, entre outras coisas.
A IA generativa como o ChatGPT já está a ser utilizada para melhorar a oferta de produtos da Microsoft, também. Por exemplo, de acordo com a empresa, a versão premium do Teams pode usar IA para criar capítulos em conversas e recapitulativos gerados automaticamente, enquanto a Viva Sales pode oferecer orientação orientada por dados e sugerir conteúdos de e-mail para ajudar as equipas a chegar aos seus clientes.
Casos de utilização empresarial para o Azure OpenAI ChatGPT
Ritu Jyoti, vice-presidente do grupo IDC para a investigação mundial sobre IA e automação, disse que os casos de utilização propostos fazem muito sentido, e que espera que grande parte da utilização inicial da nova oferta da Microsoft, alimentada pelo ChatGPT, seja focalizada internamente nas empresas.
“Por [exemplo], ajudar os RH a reunir descrições de funções, ajudar os funcionários com a gestão e descoberta de conhecimentos internos – por outras palavras, aumentar os funcionários com pesquisa interna”, disse ela.
O preço do serviço funciona por tokens – um token cobre cerca de quatro caracteres de uma determinada consulta em inglês escrito, com um número médio de 100 tokens, e um ensaio de 1.500 palavras a cerca de 2.048. De acordo com Jyoti, uma razão pela qual as aplicações baseadas no GPT-3 se tornaram mais populares pouco antes de o ChatGPT se tornar viral é que o preço da fundação OpenAI caiu para cerca de $0,02 por 1.000 tokens.
ChatGPT via Azure custa ainda menos, a $0,002 por 1.000 tokens, tornando o serviço potencialmente mais económico do que a utilização de um modelo de linguagem grande interno, acrescentou ela.
“Penso que o preço é ótimo”, disse Jyoti.
A Microsoft parece estar a operar o serviço com ênfase nas práticas responsáveis de IA, de acordo com o vice-presidente da Gartner e analista Bern Elliot – talvez tendo aprendido lições de incidentes em que um “chatbot” do Bing mostrou um comportamento estranho, incluindo uma conversa com um repórter do New York Times em que o “chatbot” declarou o seu amor e a sua atitude para o convencer a deixar o seu cônjuge.
“Penso que a Microsoft, historicamente, tem levado a IA responsável muito a sério, e isso é mérito deles”, disse ele. “Ter um forte historial para uso ético e para proporcionar privacidade de grau empresarial é positivo, por isso penso que isso está a seu favor”.
Esta é uma consideração fundamental, disse ele, dadas as preocupações levantadas pela utilização da IA na empresa – proteção de dados e contextualização de conjuntos de dados, mais especificamente. Esta última questão centra-se geralmente na garantia de que a IA da empresa está a retirar respostas da base de informação correta, o que assegura que essas respostas são corretas e elimina as “alucinações” observadas na IA de uso mais geral.