Apple vai usar tecnologia que localiza imagens de abuso sexual nas mensagens dos iPhones


A Apple informou que a sua aplicação de mensagens vai passar a ter capacidade de identificar e avisar sobre conteúdos sensíveis, referentes a abuso sexual de menores, mas sem permitir à empresa a leitura das comunicações privadas.

A empresa apresentou planos para examinar iPhones nos EUA, em busca de imagens de abuso sexual de crianças. A medida tem apoiantes mas também levanta preocupações pela eventual utilização da tecnologia por parte de governos que desejem controlar os seus cidadãos.

O instrumento, que a Apple designou como “neuralMatch”, vai detectar imagens conhecidas de abuso sexual de crianças, sem desencriptar as mensagens. Se for encontrada uma correspondência, a imagem vai ser vista por uma pessoa, que pode notificar a polícia se for necessário.

Mas alguns investigadores contrapuseram que a tecnologia pode ser usada para outros objectivos, como vigilância governamental de dissidentes ou contestatários.

As empresas tecnológicas, têm partilhado ao longo de anos listas negras de imagens conhecidas de abuso sexual de crianças. A Apple tem também estado a inspecionar ficheiros guardados no seu serviço iCloud, que não está tão seguramente encriptado como as suas mensagens, em busca desse tipo de imagens.

Avançar com estas medidas de segurança vai exigir à Apple um equilíbrio delicado entre combater a exploração de crianças e manter o seu compromisso com a proteção da privacidade dos seus utilizadores, a tecnológica acredita que vai conseguir esta compatibilização.

Recorde-se que a Apple foi uma das primeiras empresas a aderir à encriptação de-ponta-a-ponta, na qual as mensagens apenas podem ser lidas por quem as envia e quem recebe.

Exit mobile version