La empresa Apple reveló que tiene planes de escanear los iPhones de Estados Unidos en busca de imágenes de abuso sexual infantil, lo que generó aprobación de los grupos de protección de los niños pero preocupación de algunos investigadores en seguridad por la posibilidad de que el sistema se utilice de forma indebida.
La herramienta diseñada para detectar imágenes previamente identificadas de abusos sexuales a menores, llamada “neuralMatch”, escaneará las imágenes antes de que sean subidas a iCloud. Si encuentra una coincidencia, la imagen será revisada por una persona. Si se confirma la existencia de pornografía infantil se inhabilitará la cuenta del usuario y se notificará al Centro Nacional para Niños Desaparecidos y Explotados.
El sistema sólo marcará las imágenes que ya estén registradas en la base de datos de pornografía infantil del centro. Los padres que tomen fotos inocentes de un niño en la bañera no deben preocuparse. Sin embargo, algunos investigadores afirman que esta herramienta de cotejo, la cual no “ve” esas imágenes, sino las “huellas” matemáticas que las representa, podría tener otros usos como el espionaje gubernamental a disidentes o manifestantes.
Apple to scan iPhones for child sex abuse images https://t.co/yfBFjWIFTJ
— BBC News Technology (@BBCTech) August 5, 2021
Apple plans to modify iPhones to constantly scan for contraband:
“It is an absolutely appalling idea, because it is going to lead to distributed bulk surveillance of our phones and laptops,” said Ross Anderson, professor of security engineering. https://t.co/rS92HR3pUZ
— Edward Snowden (@Snowden) August 5, 2021