Investigadores de IA pedem proibição de armas autónomas

Stephen Hawking e outros signatários de uma carta aberta realçam o risco de uma corrida ao armamento com capacidade de decisão independente.

Stephen_Hawking_using_ACAT._Credit_Intel_1Proibir o uso de armas ofensivas autónomas para evitar uma adopção desenfreada das mesmas ou até começar uma corrida a esse tipo de armamento é o objectivo de uma série de investigadores na área da inteligência artificial (IA) e da robótica, signatários de uma carta aberta, juntamente com 1.800 pessoas.

Entre o grupo estão individualidades como o cientista Stephen Hawking, o fundador da Tesla, Elon Musk, e o co-fundador da Apple, Steve Wozniak.

A missiva foi apresentada na International Joint Conference on Artificial Intelligence, a decorrer até quinta-feira, em Buenos Aires (Argentina).

O seu conteúdo alerta para os riscos da criação de armas capazes de seleccionar e destruir alvos de forma autónoma, sem intervenção humana.

Destaca a possibilidade de se iniciar com esse equipamento uma nova corrida mundial ao armamento, dentro de alguns anos, dado o estado actual da investigação em IA.

Alguns observadores consideram a criação de armas autónomas como a a terceira revolução na guerra, depois das invenções da pólvora e da bomba nuclear.

O equipamento previsto inclui drones de quatro hélices capazes de procurar e eliminar pessoas enquadradas em determinados critérios pré-definidos. Armas como os mísseis de cruzeiro ou os drones pilotados remotamente não são considerados autónomos porque os seres humanos escolhem os seus alvos.

O grupo alerta que basta uma grande potência militar desenvolver armas daquele tipo para o processo acelerar à escala mundial de forma inevitável.

Assim, o desenvolvimento de software de IA para tomar essas decisões é o único obstáculo à criação de armas autónomas. Ao substituir soldados humanos por máquinas, é reduzido o número de baixas, entre os detentores desse armamento, mas diminui o limiar para desencadear ataques e guerras, lembra a carta.

A questão-chave que a humanidade enfrenta hoje é se deve permitir o início de uma corrida às armas de IA, ou impedir que ela se inicie, escreveram os cientistas. O grupo alerta que basta uma grande potência militar desenvolver armas daquele tipo para o processo acelerar à escala mundial de forma inevitável.




Deixe um comentário

O seu email não será publicado