Ter código de ética ajudaria os programadores

O escândalo da Cambridge Analytica revela que o sector das TIC ainda tem de lidar com muitos dilemas éticos.

Médicos, agentes de autoridade, mas também canalizadores e trabalhadores da construção civil em muitos países, obedecem a algum tipo de código de conduta ética. À partida basta que o trabalho  de um profissional tenha impacto nas comunidades, mas há uma excepção bastante notável: o sector das TIC.

Embora existam códigos de conduta específicos de organizações e empresas, não há um conjunto abrangente de normas que englobe todo o sector. Talvez seja porque, como escreve Yonatan Zunger no Boston Globe, “[…] o campo da ciência da computação, ao contrário de outras ciências, ainda não enfrentou sérias consequências negativas ligadas ao trabalho que os seus trabalhadores executam”.

Mas, considerando os detalhes sobre o papel da Cambridge Analytica no desenvolvimento de software para ajudar clientes a manipular eleitores, isso pode estar prestes a mudar. A ciência da computação e o desenvolvimento de software enfrentaram problemas de ética no passado.

Apesar disso parece que os mesmos estão a acontecer não só com maior frequência, mas também numa maior escala e impacto. Em 2015, testes independentes revelaram que os engenheiros da Volkswagen programavam carros para enganar controlos de emissão de partículas poluentes.

Na sequência da eleição presidencial dos EUA em 2016, a Facebook – entre outros – está a braços com uma epidemia de notícias falsas. A rede está intrinsecamente ligada ao uso de informações pessoais de utilizadores como armas, pela Cambridge Analytica.

Um código de ética pode fornecer contexto e uma estrutura a que os profissionais podem recorrer, mas Dave West (Scrum.org) compreende  que um grupo profissional tão diversificado não seja capaz de concordar com todos os aspectos necessários .

Os EUA estão em dificuldades para lidar com a intrusão russa nas suas eleições presidenciais e o papel desempenhado pelas plataformas de redes sociais, como a Twitter e a Facebook. Além disso, o actual presidente Donald Trump, fez campanha com a promessa de manter um registo sobre muçulmanos presentes no país para controlar praticantes da religião islâmica.

São apenas alguma situações em que o software pode ser usado para fins nefastos. Não há como antever definitivamente todos os possíveis resultados do desenvolvimento e uso de cada peça de tecnologia, cada linha de código.

Contudo, a responsabilidade cabe aos que projectam e criam os produtos, os pacotes de software, as aplicações para garantir uma utilização benéfica para toda a sociedade. Isso envolve muita pressão.

É difícil definir o que está certo e errado quando se está pressionado a cumprir prazos ou se um modo de vida estiver em risco. Um código de ética pode fornecer contexto e uma estrutura a que os profissionais podem recorrer, diz Dave West, gestor de produto na Scrum.org. E embora gostasse que houvesse esse conjunto de regras, considera compreensível que um grupo tão diversificado não seja capaz de concordar com todos os aspectos implícitos num código.

O debate sobre ética no desenvolvimento de software decorre desde que a profissão de programador existe. 

“Gostava de ter um, normalizado para o sector; nós temos o nosso próprio enquadrado na nossa missão de melhorar a profissão de criação de software. No centro disto estão os nossos cinco principais valores: abertura, coragem, respeito, foco e compromisso. E nós sentimos que isso é uma base sólida para qualquer um voltar caso se sintam inseguros sobre qualquer parte das suas responsabilidades de trabalho. Porque podem dar um passo atrás e olhar para aqueles valores e dizer, ‘Estou mesmo a fazer o que é correcto e com base nestas coisas em que acredito? ‘”diz West.

O debate sobre ética no desenvolvimento de software decorre desde que a profissão de programador existe. Pode ser quase impossível avaliar todas as possíveis aplicações de uma tecnologia e isso é a beleza e a parte terrível da questão, diz Shon Burton, fundador e CEO da HiringSolved ‒ empresa de contratação de recursos humanos, que usa inteligência artificial (AI) para ajudar as empresas a identificarem potenciais trabalhadores.

“Se a segurança fosse prioridade, a API do Facebook Graph usada pela Cambridge Analytica provavelmente nunca teria visto a luz do dia”, afirma Zunger.

“Qualquer ferramenta pode ser uma arma dependendo de como é usada. Não há como saber de todas as aplicações possíveis de uma tecnologia. Para nós, no uso de inteligência artificial e da automação, posso ver o que é correcto e incorrecto, e ambos são facilmente acessíveis. Podemos ajudar os clientes a seleccionarem diversos candidatos. Mas também vemos que elas podem ser usada para filtrar pessoas por etnias e género. Temos um código de conduta interno ao qual todos aderiram. Mas percebemos o potencial e consequências não intencionais”, explica Burton.

“Se a segurança fosse prioridade, a API do Facebook Graph usada pela Cambridge Analytica, que causou alarme generalizado entre engenheiros logo no seu lançamento em 2010, provavelmente nunca teria visto a luz do dia”, escreve Zunger.

Na ausência de um conjunto de normas éticas para todo o sector, os indivíduos e até mesmo algumas entidades empresariais estão a tornar públicas algumas posições baseadas nos seus valores. Em Dezembro, o movimento NeverAgain.tech fez circular um apelo de resistência ao desenvolvimento de uma base de dados sobre pessoas assente nas crenças religiosas constitucionalmente protegidas. Recusamo-nos a facilitar deportações em massa de pessoas que o governo acredita serem indesejáveis​​”, diz o juramento.

Reuniram-se mais de 2500 assinaturas. O CEO da GrubHub, Matt Maloney, enfrentou muita pressão devido à sua posição contra acções e linguagem odiosas, degradantes e discriminatórias. E o executivo da Oracle, George Polisner, renunciou publicamente à sua posição, em resposta à sua co-CEO, Safra Catz, ter aceite um papel na administração presidencial de Trump.

“Pode ser mais importante ensinar as pessoas a fazerem as perguntas certas”

Será difícil saber onde está a linha entre o correcto e incorrecto neste contexto, mesmo que se ande sobre ela. Embora um código de ética normalizado e comum possa ser uma solução, pode ser mais importante ensinar as pessoas a fazerem as perguntas certas, diz West, da Scrum.org.

“Pessoalmente, eu adoraria ver mais formação sobre o ensino da ética do que está actualmente existe, especialmente em contexto profissional, em vez de apenas um curso sobre teoria. Porque a ética isoladamente não funciona e tem de fazer parte de uma norma profissional mais ampla”.

Segundo o mesmo há também outra questão: “Muitas vezes os indivíduos não estão a desenvolver software sozinhos e não tomam as decisões erradas de uma só vez, mas incrementalmente ”. “O que se pretende deve ser desenvolvido? Quais são as salvaguardas se for incorrecto? O que podemos fazer para garantir que estamos tendo o menor impacto prejudicial possível?”: estas são as questões que interessa colocar, sugere Shon Burton.

Ensinar as pessoas a fazer as perguntas certas envolve perceber quais são, diz, e que os valores de todos são diferentes. Alguns indivíduos não têm problemas em trabalhar com software para gerir reactores nucleares, ou de desenvolver sistemas de alvos para drones, bombas inteligentes ou aviões militares.

“A verdade é que já estivemos neste ponto antes e já demos passos largos em direcção à mitigação de riscos e consequências imprevistas. Sabemos que temos de ter muito cuidado com o modo como estamos a usar algumas dessas tecnologias. Já não é uma questão de se poder desenvolver mais, porque sabemos que a tecnologia e a capacidade estão disponíveis para construir o que conseguirmos imaginar.

Burton acredita, apesar dos pessimistas, que a AI, a aprendizagem de máquina e a automação podem realmente ajudar a resolver esses problemas éticos. Libertarão os seres humanos para contemplar de forma mais abrangente os impactos da tecnologia que estão a desenvolver.

”Neste momento, há muita pressão para cumprir os prazos e há pressão do mercado para libertar produtos, e isso está a tirar tempo dos programadores, CIO, CTO e outros líderes de TI”, considera Burton. “Se pudermos automatizar mais processos e aliviar alguns dos esforços humanos para poderem aplicar um melhor pensamento crítico melhor, esperamos resolver alguns desses problemas antes de serem críticos”, sugere.

Não há um “resposta correcta” aqui, e um código de ética certamente não englobará todos os problemas éticos. Mas pode ser um bom começo se os indivíduos e organizações quiserem aproveitar o grande poder das TIC para criar soluções que sirvam a um bem maior.




Deixe um comentário

O seu email não será publicado