Apple vai procurar imagens de abuso sexual nos iPhones
A Apple tem planos para implementar uma tecnologia nos iPhones que procura por imagens de abuso sexual de crianças. Medida obriga a um equilíbrio sensível entre o combate à pedofilia e a privacidade.
A Apple apresentou planos para examinar iPhones nos EUA, em busca de imagens de abuso sexual de crianças, o que suscitou aplausos dos defensores destas e preocupações pela eventual utilização por governos que desejem controlar os seus cidadãos.
A Apple informou que a sua aplicação de mensagens vai passar a ter capacidade de identificar e avisar sobre conteúdos sensíveis, sem possibilitar à empresa a leitura das comunicações privadas.
O instrumento, que a Apple designou como “neuralMatch”, vai detetar imagens conhecidas de abuso sexual de crianças, sem desencriptar as mensagens das pessoas. Se for encontrada uma correspondência, a imagem vai ser vista por uma pessoa, que pode notificar a polícia se for necessário.
Mas investigadores contrapuseram que o instrumento pode ser usado para outros objetivos, como vigilância governamental de dissidentes ou contestatários.
Matthew Green, da Universidade Johns Hopkins, um dos principais investigadores em criptografia, manifestou-se preocupado com a possibilidade de utilização deste instrumento para controlar pessoas inocentes, enviando-lhes imagens banais, mas desenhadas para parecerem pornografia infantil, enganando o algoritmo da Apple levando ao alerta das forças policiais — essencialmente controlando as pessoas. “Os investigadores têm sido capazes de fazer isso facilmente”, disse.
As empresas tecnológicas, como Microsoft, Google e Facebook, têm partilhado ao longo de anos “listas negras” de imagens conhecidas de abuso sexual de crianças. A Apple tem também estado a inspecionar ficheiros guardados no seu serviço iCloud, que não está tão seguramente encriptado como as suas mensagens, em busca desse tipo de imagens.
A empresa tem estado sob pressão de governos e polícias para autorizar a vigilância de informação encriptada. Avançar com estas medidas de segurança vai exigir à Apple um equilíbrio delicado entre atacar a exploração das crianças e manter o seu compromisso com a proteção da privacidade dos seus utilizadores.
A Apple acredita que vai conseguir esta compatibilização com a tecnologia que desenvolveu em consulta com vários criptógrafos proeminentes, como Dan Boneh, docente na Universidade de Stanford, cujo trabalho neste campo lhe valeu um Turing Award, muitas vezes considerado a versão do Prémio Nobel na área da tecnologia.
O cientista da computação, que há mais de uma década inventou a PhotoDNA, a tecnologia usada pela polícia para identificar pornografia infantil em linha, reconheceu o potencial para o abuso do sistema da Apple, mas contrapôs que é mais do que compensado pelo imperativo de combater o abuso sexual de crianças.
“É possível? Com certeza. Mas é alguma coisa que me preocupe? Não”, disse Hany Farid, investigador na Universidade da Califórnia, em Berkeley, que argumenta que existem muitos outros programas concebidos para proteger os aparelhos de várias ameaças. Por exemplo, a WhatsApp disponibiliza aos seus utilizadores uma encriptação total para proteger a sua privacidade, mas usa um sistema de deteção de programas maliciosos e avisa os utilizadores para não abrirem ligações suspeitas.
A Apple foi uma das primeiras principais empresas a aderir à encriptação “de-ponta-a-ponta”, na qual as mensagens apenas podem ser lidas por quem as envia e quem recebe. Porém, há muito que as polícias pressionam para ceder a essa informação, de forma a investigar crimes como terrorismo ou exploração sexual de crianças.
“O aumento da proteção das crianças pela Apple é uma mudança de jogo”, disse o presidente Centro Nacional para as Crianças Desaparecidas e Abusadas, John Clark, em comunicado. “Com tantas pessoas a usarem os produtos da Apple, estas novas medidas de segurança têm o potencial de salvar vidas de crianças”, acentuou.
A presidente da Thorn, Julia Cordua, considerou que a tecnologia da Apple pondera “a necessidade de privacidade com a segurança digital das crianças”. A Thorn, uma organização sem fins lucrativos, fundada por Demi Moore e Ashton Kutcher, usa a tecnologia para ajudar a proteger as crianças dos abusos sexuais.
Assine o ECO Premium
No momento em que a informação é mais importante do que nunca, apoie o jornalismo independente e rigoroso.
De que forma? Assine o ECO Premium e tenha acesso a notícias exclusivas, à opinião que conta, às reportagens e especiais que mostram o outro lado da história.
Esta assinatura é uma forma de apoiar o ECO e os seus jornalistas. A nossa contrapartida é o jornalismo independente, rigoroso e credível.
Comentários ({{ total }})
Apple vai procurar imagens de abuso sexual nos iPhones
{{ noCommentsLabel }}