Apple deixa lançamento de funcionalidades contra o abuso sexual de crianças para mais tarde

Os instrumentos propostos têm sido criticados por especialistas em privacidade e segurança, que argumentam que o sistema poderia ser utilizado para fins de vigilância, principalmente por governos autoritários.

Depois de ter recebido duras críticas sobre novas funcionalidades que iriam examinar fotos de utilizadores em busca de material de abuso infantil (CSAM), a Apple recuou e adiou o lançamento da ferramenta prevista para este ano. A empresa adiantou que, a partir do feedback dos clientes, optou por “dar mais tempo” para “fazer melhorias antes do lançamento”.

“No mês passado, anunciámos planos para recursos destinados a ajudar a proteger as crianças de predadores que usam ferramentas de comunicação para as recrutar e explorar e limitar a propagação de material de abuso sexual infantil”, disse a Apple em comunicado ao site The Verge.

“Com base no feedback dos clientes, grupos de advocacia, investigadores e outros, decidimos aproveitar mais tempo nos próximos meses para recolher informações e fazer melhorias antes de lançar estas características extremamente importantes de segurança infantil.”

As alterações propostas pela Apple contra o abuso sexual de crianças no início do mês passado incluíam uma ferramenta concebida para detetar imagens conhecidas de abuso infantil, digitalizar as imagens dos utilizadores enviados para o iCloud, reportando a moderadores que poderiam alertar o Centro Nacional de Crianças Desaparecidas e Exploradas.

Outra tecnologia de segurança anunciada pela empresa usa machine learning no dispositivo para identificar e desfocar imagens que indicam abuso sexual de crianças em mensagens, alertando os pais de menores. E também, uma mudança na Search e na Siri, que apontaria recursos para impedir o CSAM se um utilizador procurasse informações relacionadas.

No entanto, os instrumentos propostos têm sido criticados por especialistas em privacidade e segurança, que argumentam que o sistema poderia ser utilizado para fins de vigilância, principalmente por governos autoritários.

Em meados de agosto, porém, a empresa disse que não cederia à pressão dos governos, bem como garantiu que tem um sistema de proteção para evitar que outros tipos de imagens sejam detetadas e digitalizadas.

A Electronic Frontier Foundation disse num comunicado divulgado no dia 5 de agosto que o novo sistema, embora bem intencionado, iria “quebrar as principais promessas da própria encriptação do mensageiro e abrir a porta a abusos mais amplos”.




Deixe um comentário

O seu email não será publicado