Advierte Edward Snowden sobre nueva tecnología de Apple; ‘Alcanza los límites de la privacidad´
COMPARTIR
La actualización del sistema operativo busca combatir la pornografía infantil alojada en los productos Apple
El ex trabajador de la Agencia Nacional de Seguridad de Estados Unidos, Edward Snowden quien fue el responsable revelar de los programas de espionaje masivo del gobierno estadounidense en 2013, compartió su preocupación por la nueva tecnología de escaneo de Apple, la cual sería utilizada con el objetivo de detectar pornografía infantil.
Como preámbulo se sabe que Apple, en una actualización que se implementará el próximo mes iniciando en Estados Unidos, planea usar inteligencia artificial y criptografía para escanear fotos almacenadas localmente en iPhones y iPads e identificar si alguna está relacionada con pornografía infantil.
De acuerdo a Snowden lo anterior sólo podría demostrar la capacidad y voluntad de buscar de manera continua y remota cada teléfono para encontrar evidencia de un tipo específico de crimen, no habrá límites para el tipo de contenido o actividades, consideradas criminales por algún país, que no pueda buscar.
“La propuesta de Apple de hacer que los teléfonos informen y traicionen a sus dueños marca el amanecer de un futuro oscuro, uno que será escrito en la sangre de la oposición política de cientos de países que explotarán este sistema al máximo”, expresó el ex empleado gubernamental.
AMENAZAS A LA PRIVACIDAD
Snowden cita “pruebas convincentes” de los investigadores de que el sistema de detección de CSAM de Apple tiene graves defectos”, llama la atención sobre un punto mucho más importante.
“Apple puede decidir si sus teléfonos monitorearán o no las infracciones de sus propietarios para el gobierno, pero es el gobierno el que decide qué constituye una infracción ... y cómo manejarla”.
También señala que todo el sistema se puede omitir fácilmente, lo que “burla” el objetivo declarado detrás de su creación:
“Si usted es un pedófilo emprendedor con un sótano lleno de iPhones contaminados con CSAM, Apple le da la bienvenida para que se exima por completo de estos escaneos simplemente presionando el interruptor ‘Desactivar fotos de iCloud’, una omisión que revela que este sistema nunca fue diseñado para proteger a los niños, como quieren que usted crea, sino más bien proteger su marca. Siempre que mantenga ese material fuera de sus servidores y, por lo tanto, mantenga a Apple fuera de los titulares, a Apple no le importa “.
DECISIÓN
Hasta la fecha, Apple ha defendido su sistema de detección CSAM con argumentos insistentes en que estaba mal comunicado.
Aun así, la semana pasada, los investigadores, que trabajaron en un sistema similar durante dos años, concluyeron que “la tecnología era peligrosa” y dijeron que “nos sorprendió ver que Apple tenía pocas respuestas para las preguntas difíciles que habíamos surgido”.
CSAM se lanzará en iOS 15, iPadOS 15, WatchOS 8 y macOS el próximo mes. (Con información de rd3.mx, The New York Times y Forbes)