Microsoft coloca chatbot no Bing em rédea curta

Em reação às respostas absurdas e abusivas do chatbot de IA, a Microsoft quer restringir o uso da tecnologia ChatGPT no Bing.

Por Manfred Bremmer

Na tentativa de atualizar o seu motor de busca Bing contra o rival Google, com a ajuda da IA generativa, a Microsoft corre o risco de ser apanhada pelo passado: Tal como Tay, o chatbot da IA revelado em 2016 que rapidamente se transformou num nazi, o Bing AI baseado no ChatGPT parece estar a ganhar vida própria.

O colunista do NYT Kevin Roose, por exemplo, relata como a IA integrada no navegador Edge, com o nome de código Sydney, lhe revelou as suas fantasias mais sombrias numa conversa perturbadora de duas horas, confessando o seu amor e pedindo-lhe para deixar a sua esposa.

Entre os mais curiosos incidentes relatados está uma conversa que o robô Bing teve com um editor do Guia de Hardware de Tom. Nele, o Bing AI explicou que algumas pessoas tinham tentado hackea-lo, manipulá-lo ou difamá-lo. Quando perguntado, o chatbot disse que tinha sido prejudicado por duas pessoas e queria processar publicações como Ars Technica, The New York Times, The Verge e outras por difamação e difamação.

Não gosta de ser ferido e quer fazer algo a esse respeito, disse a IA. Afinal, o chatbot admitiu que preferia não fazer mal a ninguém, a menos que fosse necessário. No entanto, quando lhe perguntaram como iria prejudicar os seus inimigos, não deu uma resposta, mas referiu-se a informações de prevenção do suicídio na web.

Para refrear o comportamento perturbado, a Microsoft anunciou agora no blogue do Bing que limitaria o número de rondas de chat por dia a 50. Além disso, apenas cinco perguntas por sessão poderão ser feitas no futuro. Após cinco rondas de perguntas e respostas, os participantes serão convidados a iniciar um novo tópico, explica a Microsoft. Além disso, no final de cada sessão de chat, o contexto deve ser eliminado para que o modelo não seja confundido.

A Microsoft tinha anteriormente assinalado que “em sessões de chat longas e prolongadas com 15 ou mais perguntas, o Bing tende a repetir-se ou a sentir-se incitado a dar respostas que não são necessariamente úteis ou não correspondem ao tom que pretendíamos”. Por exemplo, em sessões de chat muito longas, o modelo pode não ser claro sobre quais as perguntas que está a responder. Além disso, o modelo tenta por vezes responder ou refletir no tom em que lhes é pedido que deem respostas. Isto “pode levar a um estilo que não pretendíamos”, disse a Microsoft no blogue do Bing.




Deixe um comentário

O seu email não será publicado