Os profissionais corporativos podem estar a comprar o hype da IA generativa sem considerar o risco desses LLM. É por isso que precisamos de uma abordagem da Apple.

Por Jonny Evans
É como se praticamente todos estivessem a usar o ChatGPT da Open AI desde que a IA generativa atingiu o horário nobre. Mas muitos profissionais empresariais podem estar a abraçar a tecnologia sem considerar o risco destes grandes modelos linguísticos (LLM).
É por isso que precisamos de uma abordagem da Apple à IA generativa.
O que acontece na Samsung deve ficar na Samsung
O ChatGPT parece ser uma ferramenta para fazer tudo, capaz de responder a perguntas, aperfeiçoar a prosa, gerar sugestões, criar relatórios e muito mais. Os programadores têm usado a ferramenta para os ajudar a escrever ou melhorar o seu código e algumas empresas (tais como a Microsoft) estão a usar esta inteligência de máquina em produtos, navegadores web e aplicações existentes.
Tudo isso está bem e bem. Mas qualquer utilizador empresarial deve ter em conta os avisos de empresas como a Europol e a agência de informação do Reino Unido NCSC e considerar as letras miúdas antes de comprometer informação confidencial. Porque os dados, uma vez partilhados, já não são controlados pela entidade que os partilha, mas pela OpenAI – o que significa que a informação confidencial já não é segura.
Isso pode ser uma questão básica de privacidade para muitos utilizadores, mas para as empresas, particularmente as que lidam com informação privilegiada, significa que a utilização do ChatGPT acarreta sérios riscos.
Tem havido avisos para este efeito em circulação desde que o software apareceu, mas não estão claramente a ser ouvidos por causa do hype pró-LLM. Isso é sugerido pelas notícias de que os engenheiros da Samsung Semiconductor têm estado a utilizar o ChatGPT e, ao fazê-lo, geraram três fugas de dados sensíveis em apenas 20 dias.
Os engenheiros utilizaram o ChatGPT para cumprir tarefas bastante simples:
- Verificar erros no código fonte.
- Otimizar o código utilizado para identificar instalações defeituosas.
- Transcrever uma reunião gravada num smartphone para criar atas de reunião.
O problema é que, em todos estes casos, os funcionários tomaram efetivamente informações proprietárias da Samsung e deram-nas a um terceiro, retirando-as do controlo da empresa.
Naturalmente, uma vez descobertos estes eventos, a Samsung avisou os seus empregados sobre os riscos de utilização do ChatGPT. Os seus trabalhadores compreendem que, uma vez partilhada a informação, esta poderia ser exposta a um número desconhecido de pessoas. A Samsung está a tomar medidas para mitigar essa utilização no futuro, e se estas não funcionarem bloqueará a utilização da ferramenta na sua rede. A Samsung está também a desenvolver a sua própria ferramenta semelhante para uso interno.
O incidente da Samsung é uma demonstração clara da necessidade de os líderes empresariais compreenderem que a informação da empresa não pode ser partilhada desta forma.
Precisamos de uma abordagem Apple à IA Generativa
É por isso claro que a abordagem geral da Apple à IA faz tanto sentido. Embora haja exceções (incluindo, a dada altura, a partilha flagrante de dados para classificação dentro do Siri), a tática da Apple é tentar fazer soluções inteligentes que requerem muito poucos dados para correr. O argumento é que se a Apple e os seus sistemas não tiverem uma perceção da informação de um utilizador, então esses dados permanecem confidenciais, privados e seguros.
É um argumento sólido que deveria ser estendido à IA generativa e potencialmente a qualquer forma de pesquisa. A Apple não parece ter um equivalente ao ChatGPT, embora tenha alguns dos blocos de construção sobre os quais criar equivalentes da tecnologia no dispositivo para o seu hardware. O incrivelmente poderoso Motor Neural da Apple, por exemplo, parece ter a potência para executar modelos LLM com operações pelo menos um pouco equivalentes no dispositivo. Ao fazê-lo, seria uma ferramenta muito mais segura.
Embora a Apple ainda não tenha a sua própria conceção, é inevitável que à medida que os riscos do modelo ChatGPT se tornam mais amplamente compreendidos a procura de acesso privado e seguro a ferramentas semelhantes irá apenas expandir-se. As empresas querem a produtividade e a eficiência sem os custos da confidencialidade.
O futuro de tais ferramentas parece, então, provavelmente basear-se em tirar tais soluções tanto quanto possível da cloud e para o dispositivo. Esta é certamente a direção de viagem que a Microsoft parece estar a sinalizar, uma vez que trabalha para tecer ferramentas OpenAI dentro do Azure e de outros produtos.
Entretanto, qualquer pessoa que utilize LLM deve seguir os conselhos do NCSC e assegurar-se de que não inclui informação sensível nas consultas que faz. Devem também assegurar-se de que não submetem consultas a LLM públicas que “levariam a problemas se fossem tornados públicos”.
E, dado que os seres humanos são o elo mais fraco de todas as cadeias de segurança, a maioria das empresas provavelmente precisa de desenvolver um plano de ação no caso de ocorrer uma infração. Talvez o ChatGPT possa sugerir um?