En cuestión de segundos una imagen puede ser replicada, reenviada y retuiteda miles de veces. Al paso de las horas ya se contará en millones las veces que se comparte.
Pero…¿qué pasa cuando se trata de Pornografía o Abuso Infantil? Quizá la cantidad baje pero no así el daño que causará. Y hay que decirlo: los laxos controles de las nubes de almacenamiento, así como lo que vive en le Deep Web, muchas veces hace que este delito se consuma sin dejar rastro. Ante esto, Apple busca tomar medidas drásticas para que sus responsables tengan nombre y apellido.
A finales de este año, Apple ha anunciado que lanzará dos nuevas funciones. Una permitirá frenar e identificar a las personas que almacenen Pornografía Infantil en su cuenta de iCloud. La otra permitirá que los padres permitan que en el iPhone de sus hijos les mande una alerta cuando reciban una fotografía que contenga desnudos en algún mensaje de texto.
Por años, autoridades (sobre todo en Estados Unidos) se han quejado que el encriptamiento de datos les ha impedido continuar o llevar a buen puerto sus investigaciones. Con los cambios que planea Apple para fin de este 2021 eso podría significar una ruta que abra dos caminos. El primero, por obvio que parezca, lograr mejores investigaciones. El segundo, y es el que preocupa a los investigadores en ciberseguridad, es que los datos personales de las personas estén comprometidos.
Tecnología de punta
Para identificar las imágenes relacionadas con Pornografía Infantil, Apple empatará sus bases de datos con las de diferentes asociaciones que tienen ya registradas ese tipo de imágenes con una huella digital que es imborrable y se replica en cada una.
Así, la empresa de Cupertino al identificar una de esas imágenes buscará en las bases previamente compartidas si hay alguna huella digital relacionada con Pornografía Infantil. Si empatan, entonces un empleado dará aviso a las autoridades correspondientes. De paso, se bloqueará la cuenta del usuario para que no pueda borrar las imágenes y en determinado momento puedan servir como prueba judicial.
Más allá de las cuestiones de privacidad o espionaje, aquí lo que está en juego es el presente y futuro de muchos niños y adolescentes. También, podría ser un arma eficaz contra el chantaje al momento de compartir imágenes de desnudos.