Apple instalará en el iPhone un software para detectar pornografía infantil.
CIUDAD DE MÉXICO (apro).– Apple pretende instalar un software en el iPhone para buscar pornografía infantil o imágenes de abuso sexual a menores. El sistema se implementará, inicialmente, solo en Estados Unidos, informó Financial Times.
Sin embargo, indicó que esto ha generado alarma entre los investigadores de seguridad porque “podría abrir la puerta a la vigilancia de los dispositivos personales de millones de personas”.
Apple confirmó sus planes en un blog argumentando que la tecnología de escaneo es parte de un nuevo conjunto de sistemas de protección infantil que “evolucionaria y expandiría” con el tiempo, y serán parte de las funciones de iOS 15. Espera lanzarlo en septiembre, señaló el diario.
La empresa tecnológica detalló la operación del software conocido como “neutralMach” a algunos académicos estadunidenses, “según dos investigadores de seguridad informados sobre la reunión virtual”, indicó.
¿Cómo funciona “neutralMatch”?
Según Financial Times, este software alertaría de manera proactiva a un equipo de revisores humanos cuando detecte imágenes ilegales y éstos se pondrán en contacto con las autoridades para verificar el material.
El algoritmo “neutralMatch” escaneará continuamente las fotos almacenadas en el Apple de un usuario en Estados Unidos y las que están en el respaldo del iCloud, las convertirá en una serie de números mediante un proceso conocido como “hash” y las comparará con una base de datos de 200 mil imágenes conocidas de abuso sexual infantil que recopiló el NCMEC (National Center for Missing & Exploited Children).
Cada fotografía recibirá un “vale de seguridad” para identificarla como sospechosa y cuando se recopile “cierto número”, Apple permitirá que sean descifradas y, si son ilegales, las enviará a las autoridades correspondientes.
“Esta nueva tecnología innovadora permite a Apple proporcionar información valiosa y procesable al Centro Nacional para Niños Desaparecidos y Explotados y a las fuerzas del orden con respecto a la proliferación de CSAM (tecnología para detectar material de abuso sexual infantil en línea) conocido”, señaló Apple.
A la par, señaló la empresa, proporcionará importantes beneficios de privacidad sobre las técnicas existentes, ya que Apple solo se enterará de las fotos de los usuarios si tienen una colección de CSAM en su cuenta de iCloud Photos.
De esta manera, Apple intenta hacer valer el compromiso de proteger la privacidad de sus clientes y las demandas de los gobiernos, las agencias de aplicación de la ley y los defensores de la seguridad infantil para ayudar en las investigaciones criminales, el terrorismo y la pornografía infantil.
En 2006, Apple acudió al FBI por el acceso al iPhone de un sospechoso de terrorismo, tras un tiroteo en San Bernardino, California.
Fuente: Proceso