sábado, noviembre 16, 2024
HomeEditorial EspañolLa 'empresa de privacidad' Apple planea monitorear los iPhones de EE.UU. en...

La ‘empresa de privacidad’ Apple planea monitorear los iPhones de EE.UU. en busca de evidencia de pornografía infantil

NOTA DEL EDITOR

 

Queridos lectores:

 

¿Funcionará esta idea en contra de nuestra privacidad bien protegida por la Constitución de EE.UU.? – Marvin Ramírez

 

por Tyler Durden

 

Como dice el viejo refrán: si no está haciendo nada ilegal, entonces no tiene nada que temer de la vigilancia.

Los teléfonos inteligentes ya actúan como dispositivos de rastreo que transmiten el paradero de sus propietarios, pero Apple está a punto de abrir la puerta a formas mucho más avanzadas de vigilancia voluntaria basada en teléfonos inteligentes al lanzar un nuevo programa diseñado para detectar e informar a los usuarios de iPhone que tienen hijos. pornografía, conocida por el acrónimo académico CSAM, que significa Materiales de abuso sexual infantil. De acuerdo con un puñado de académicos a los que se les ofreció un adelanto de los planes de la compañía, luego soltaron los frijoles en Twitter y en entrevistas con la prensa.

Se espera que Apple dé a conocer el nuevo sistema, llamado «neuralMatch», a finales de esta semana. Se espera que el software se instale en los iPhones estadounidenses mediante una actualización de software. Según FT, el sistema automatizado puede alertar proactivamente a un equipo de revisores humanos si cree que CSAM está presente en el iPhone de un usuario. Si los revisores pueden verificar el material, se contactará a la policía.

Así es como funcionará «neuralMatch»

El algoritmo neuralMatch de Apple escaneará continuamente las fotos que están almacenadas en el iPhone de un usuario de EE. UU. Y que también se han subido a su sistema de respaldo iCloud. Las fotos de los usuarios, convertidas en una serie de números mediante un proceso conocido como «hash», se compararán con las de una base de datos de imágenes conocidas de abuso sexual infantil.

El sistema ha sido capacitado en 200.000 imágenes de abuso sexual recopiladas por el Centro Nacional para Niños Desaparecidos y Explotados, una organización sin fines de lucro de EE.UU.

Un académico al que se le ofreció una vista previa del software explicó por qué esto podría crear serios riesgos de privacidad. Apple ha recibido mucha prensa positiva por su compromiso con la privacidad del usuario: ¿recuerdas cuando se negó a descifrar un iPhone que pertenecía a uno de los tiradores de San Bernardino? Bueno, esta tecnología de cifrado se ha convertido en un eterno dolor de cabeza para las fuerzas del orden. En enero pasado, Apple abandonó silenciosamente los planes para permitir a los usuarios cifrar completamente sus copias de seguridad de iCloud debido a las quejas de las fuerzas del orden.

Ahora, Apple ha encontrado un término medio: asumirá la responsabilidad de vigilar los iPhones, bueno, al menos hasta cierto punto. Para lograr esto, la compañía está lanzando una nueva herramienta de aprendizaje automático que escaneará los iPhones en busca de imágenes que coincidan con ciertos «hashes perceptuales» que se sabe que representan pornografía infantil. Pero como se han quejado los académicos, podría ser engañado potencialmente.

Es más, la herramienta que se usa hoy para descubrir pornografía infantil podría algún día ser abusada por gobiernos autoritarios (como el PCCh). Y una vez que Apple se haya comprometido a utilizar este tipo de vigilancia, los gobiernos se lo exigirán a todo el mundo.

RELATED ARTICLES
- Advertisment -spot_img
- Advertisment -spot_img
- Advertisment -spot_img