Cuando Apple anunció su propio enfoque para el escaneo de CSAM, muchos advertimos que el proceso utilizado para verificar materiales de abuso sexual infantil sería finalmente utilizado por gobiernos represivos para buscar cosas como planes de protesta política.
La empresa de Cupertino rechazó ese razonamiento en su momento, pero en un giro irónico, ahora está utilizando precisamente este argumento en respuesta al gobierno australiano. . .
Planes originales de escaneo de CSAM de Apple
Apple tenía originalmente planeado llevar a cabo el escaneo en el dispositivo para CSAM, utilizando una técnica de huella digital digital.
Estas huellas dactilares son una forma de que coincidan imágenes particulares sin que nadie las vea, y están diseñadas para ser lo suficientemente difusas como para continuar coincidiendo con imágenes que han sido recortadas u editadas de alguna otra manera, al tiempo que generan muy pocos falsos positivos.
Para ser claro, la propuesta de Apple era una aproximación respetuosa de la privacidad, ya que el escaneo se realizaría en nuestros propios dispositivos y nadie nunca miraría nuestras fotos a menos que se señalaran varias coincidencias.
El problema del gobierno represivo
El problema, como muchos de nosotros observamos, fue el potencial de abuso por parte de gobiernos represivos.
Se puede crear una huella digital digital para cualquier tipo de material, no solo CSAM. Nada impide que un gobierno autoritario agregue a la base de datos imágenes de carteles de campañas políticas o similares.
Una herramienta diseñada para apuntar a delincuentes graves podría adaptarse trivialmente para detectar a aquellos que se oponen a un gobierno o a una o más de sus políticas. Apple, que recibiría la base de datos de huellas dactilares de los gobiernos, se encontraría ayudando sin saberlo a la represión o al peor de los activistas políticos.
Apple afirmó que nunca hubiera permitido esto, pero la promesa se basaba en que Apple tuviera la libertad legal para negarse, lo que simplemente no sería el caso. En China, por ejemplo, se ha exigido legalmente a Apple que elimine VPN, noticias y otras aplicaciones, y que almacene los datos de iCloud de los ciudadanos chinos en un servidor propiedad de una empresa controlada por el gobierno. . .
No había una forma realista para que Apple prometiera que no cumpliría con futuros requisitos para procesar bases de datos suministradas por el gobierno de “imágenes CSAM” que también incluirían coincidencias con materiales utilizados por críticos y manifestantes. Como la compañía ha dicho muchas veces al defender sus acciones en países como China, Apple cumple con la ley en cada uno de los países en los que opera.
Apple’s three-stage U-turn
Apple inicialmente rechazó este argumento, pero dijo que, en respuesta a la preocupación generalizada al respecto, ha decidido abandonar sus planes de todos modos.
La empresa posteriormente cambió su postura para admitir que el problema existía.
Erik Neuenschwander, director de privacidad del usuario y seguridad infantil de Apple, escribió: “Podría. . inyectar el potencial de un resbaladizo cuesta abajo de consecuencias no deseadas. Escanear un tipo de contenido, por ejemplo, abre la puerta para la vigilancia masiva y podría crear un deseo de buscar en otros sistemas de mensajería encriptada en diferentes tipos de contenido.”
Ahora hemos llegado a la etapa tres: Apple utiliza el argumento que inicialmente rechazó.
Apple utiliza el argumento contra el gobierno australiano
El gobierno australiano propone obligar a las empresas de tecnología a escanear CSAM, y The Guardian informa que Apple ahora está utilizando el argumento de la pendiente resbaladiza para luchar contra el plan.
Apple ha advertido que una propuesta australiana de obligar a las empresas de tecnología a escanear servicios en la nube y de mensajería en busca de material de abuso infantil corre el riesgo de “socavar protecciones fundamentales de privacidad y seguridad” y podría llevar a la vigilancia masiva con repercusiones globales . . .
“Escanear un contenido particular abre paso a la vigilancia masiva de sistemas de comunicación y almacenamiento que tienen datos sobre los asuntos más privados de muchos australianos”, dijo Apple.
“Tales capacidades, la historia muestra, inevitablemente se expandirán a otros tipos de contenido (como imágenes, videos, texto o audio) y categorías de contenido.”
Apple dijo que tales herramientas de vigilancia podrían reconfigurarse para buscar otro contenido, como actividades políticas, religiosas, de salud, sexuales o reproductivas de una persona.
El gobierno dice que ha escuchado “muchos buenos comentarios” de Apple y otros, y “incorporará lo que podamos” en una versión revisada del plan.
Foto de FlyD en Unsplash
FTC: Utilizamos enlaces de afiliados que generan ingresos. Más.