Apple escaneará los teléfonos de sus usuarios

 

A menudo, detrás de un socavamiento de las libertades individuales, hay el pretexto de protegernos. ¿Puede ser que nos encontremos ante una amenaza así por parte de Apple? La gigante tecnológica ha creado recientemente nuevos sistemas para luchar contra la explotación y el abuso infantil. Con este pretexto, Apple escaneará los teléfonos de sus usuarios, y la polémica se ha levantado. Según los defensores de la seguridad pueden erosionar nuestra privacidad.

Apple se ha presentado durante mucho tiempo como un bastión de la seguridad y como una de las únicas empresas de tecnología que realmente se preocupa por la privacidad del usuario.

“En Apple creemos que la privacidad es un derecho humano fundamental”,

ha dicho a menudo el director ejecutivo de Apple, Tim Cook.

Mientras tanto, no todas las noticias de los últimos años apuntan en esta dirección, y hacen cuestionar esta falsa bandera de protección del usuario que tanto ondean desde la gigante tecnológica. Por ejemplo, cuando Apple ha sido uno de los protagonistas en el nuevo mercado donde los consumidores pagan por su privacidad.

En estos momentos una nueva amenaza para la seguridad y privacidad del usuario abre de nuevo la polémica contra Apple. Una nueva tecnología diseñada para ayudar a que el iPhone, iPad o Mac puedan detectar imágenes y videos de explotación infantil guardados en esos dispositivos ha encendido un feroz debate sobre la verdad detrás de las promesas de Apple.

El 5 de agosto, Apple anunció una nueva función que se está incorporando en las próximas actualizaciones de software iOS 15, iPad OS 15, WatchOS 8 y MacOS Monterey diseñadas para detectar si alguien tiene imágenes o videos de explotación infantil almacenados en su dispositivo.

Lo hará convirtiendo imágenes en bits únicos de código, conocidos como hashes, en función de lo que representan. Luego, los hashes se comparan con una base de datos de contenido conocido de explotación infantil que es administrado por el Centro Nacional para Niños Desaparecidos y Explotados. Si se encuentra una cierta cantidad de coincidencias, Apple recibe una alerta y puede investigar más a fondo.

Apple sostiene que su sistema está construido teniendo en cuenta la privacidad, con medidas de seguridad para evitar que Apple conozca el contenido de nuestras bibliotecas de fotos y minimizar el riesgo de uso indebido.

A los expertos en privacidad, que están de acuerdo en que luchar contra la explotación infantil es algo bueno, les preocupa que las medidas de Apple abran la puerta a usos más amplios que podrían, por ejemplo, poner en peligro a los disidentes políticos y otras personas inocentes.

En definitiva, con esta medida se estaría abriendo paso a la posibilidad de que el gigante tecnológico escanee los teléfonos de las personas por defecto, sin orden judicial para investigarles ni siquiera sin motivos para que ellos sean sospechosos. Aquellos que nunca tengan estas imágenes, de todas formas tendrán sus datos en manos de Apple, y ya habrán cedido su privacidad a cambio de una falsa promesa de seguridad.

Por eso una gran cantidad de defensores de la privacidad se han preocupado seriamente, y se están recogiendo firmas para evitarlo. Ya son más de ocho mil personas sumadas a una carta a Apple en la que se le insta a dejar esta iniciativa de escaneo de teléfonos, que ataca directamente al derecho a la privacidad.

“Incluso si crees que Apple no permitirá que estas herramientas se utilicen indebidamente, todavía hay mucho de qué preocuparse”,

tuiteó Matthew Green, profesor de la Universidad Johns Hopkins que ha trabajado en tecnologías criptográficas.

La nueva característica de Apple, y la preocupación que ha surgido a su alrededor, representan un importante debate sobre el compromiso de la compañía con la privacidad. Apple ha prometido durante mucho tiempo que sus dispositivos y software están diseñados para proteger la privacidad de sus usuarios. La compañía incluso lo ha manifestado con un anuncio de gran impacto que la compañía compartió en el salón de convenciones del Consumer Electronics Show 2019, que decía

“Lo que sucede en tu iPhone se queda en tu iPhone”.

La tecnología de escaneo de Apple es parte de un conjunto de nuevas características que la compañía planea para este otoño. Por ejemplo, el asistente de voz Siri ofrecerá enlaces y recursos a personas que crea que pueden estar en una situación grave, como un niño en peligro.

También quieren añadir una función a su aplicación de mensajes para proteger proactivamente a los niños de contenido explícito, por ejemplo conversaciones por mensaje de texto. Esta nueva funcionalidad la pondrá Apple para cuentas registradas en iCloud por menores de edad, así los iPhones o iPads de los niños podrán advertir si detectan que se envían o reciben imágenes explícitas que puedan ser perjudiciales para él. Al igual que con Siri, la aplicación también ofrecerá enlaces y recursos si es necesario.

Hay muchos matices involucrados aquí, que es parte de por qué Apple tomó el paso inusual de publicar artículos de investigación, preguntas frecuentes y otra información antes del lanzamiento planeado.

Otras empresas buscan activamente este tipo de fotos y videos. Facebook, Microsoft, Twitter y Google (y su subsidiaria YouTube) utilizan diversas tecnologías para escanear sus sistemas en busca de cargas potencialmente ilegales.

Lo que hace que el sistema de Apple sea único es que está diseñado para escanear nuestros dispositivos, en lugar de la información almacenada en los servidores de la empresa. Por tanto, aquí no se trata de rastrear datos colgados en la red y públicos para todo el mundo, sino de rastrear un Mac, un móvil o un iPad.

Hay que aclarar, con todo, que el sistema de escaneo de hash solo se aplicará a las fotos almacenadas en iCloud Photo Library, que es un sistema de sincronización de fotos integrado en los dispositivos Apple. No codificará imágenes y videos almacenados en la aplicación de fotos de un teléfono, tablet o PC que no esté usando la biblioteca de fotos de iCloud.

Entonces, de alguna manera, las personas pueden optar por no participar si eligen no usar los servicios de sincronización de fotos de iCloud de Apple. Sin embargo, solo podrán hacerlo si están bien informados sobre la invasión de privacidad que va a hacer Apple. Además, si deciden no participar, tendrán funciones muy limitadas en sus dispositivos, por lo que habrán pagado por un iPhone, por ejemplo, del que no podrán disfrutar con todas las funciones por proteger su privacidad.

¿Por qué Apple está haciendo esto ahora?

El gigante tecnológico dice que ha estado tratando de encontrar una manera de ayudar a detener la explotación infantil. Al parecer, el Centro Nacional para Niños Desaparecidos y Explotados recibió más de 65 millones de informes de material el año pasado. Apple dijo que eso está muy por encima de los informes de hace 20 años.

“También sabemos que los 65 millones de archivos que se informaron son sólo una pequeña fracción de lo que está en circulación”,

ha señalado Julie Cordua, directora de Thorn, una organización sin ánimo de lucro que lucha contra la explotación infantil y que apoya los esfuerzos de Apple. Según Cordua, la ley estadounidense requiere que las empresas de tecnología informen sobre material de explotación si lo encuentran, pero no las obliga a buscarlo.

Resiliente Digital

¿Apple está hurgando en tus fotos y textos?

Tienes tu iPhone, tienes un hijo al que has fotografiado en la bañera. ¿Qué pasa si un sistema de IA detecta tu móvil como amenaza por error? Según Apple, no habrá este problema, ya que el sistema de Apple convierte nuestras fotos en estos códigos hash y luego las compara con una base de datos conocida de videos y fotos de explotación infantil. La compañía dice que la probabilidad de un falso positivo es menos de una sobre 1 billón al año.

Además, se defienden desde Apple diciendo que no todo lo harán las máquinas.
Cada vez que el sistema marque una cuenta, primero Apple realizará una revisión humana antes de presentar un informe al Centro Nacional para Niños Desaparecidos y Explotados. Por lo tanto, los errores o ataques del sistema no darán como resultado que personas inocentes sean reportadas al NCMEC.

Respecto a los mensajes de texto, Apple no está aplicando su tecnología hash a nuestros mensajes de texto. Al menos de momento, este tema está libre de ser susceptible de escaneo por parte de Apple.

Con los mensajes de texto, Apple solo alerta a un usuario marcado como niño en su cuenta de iCloud sobre cuándo está a punto de enviar o recibir una imagen explícita. El niño aún puede ver la imagen y, si lo hace, se alertará a uno de los padres. Según los responsables de Apple,

“esta función está diseñada para que Apple no tenga acceso a los mensajes”.

¿Podría abusarse de este sistema?

La pregunta que nos ocupa no es si Apple debería hacer todo lo posible para luchar contra la explotación infantil. Aquí de lo que se trata es de si Apple debería usar este método, si tiene derecho a aplicar esta medida por muy noble que sea su causa.

La preocupación que han planteado los expertos en privacidad es si las herramientas de Apple podrían transformarse en tecnología de vigilancia contra los disidentes.

Imaginemos, por ejemplo, si el gobierno chino pudiera de alguna manera agregar en secreto datos correspondientes a la famosa foto del hombre delante del tanque, aquella de las protestas a favor de la democracia en 1989 en la Plaza de Tiananmen. Podría ser que el sistema de contenido de explotación infantil de Apple permitiera a los dictadores dar con el arma de control perfecta.

Apple dijo que diseñó funciones para evitar que eso suceda. El sistema no escanea fotos, por ejemplo, busca coincidencias entre códigos hash. La base de datos hash también se almacena en el teléfono, no en una base de datos en Internet. Apple también señaló que debido a que los escaneos ocurren en el dispositivo, los investigadores de seguridad pueden auditar la forma en que funciona más fácilmente.

Déjanos tu comentario:

comentarios

Marketing Automation