Apple dijo el jueves que está introduciendo nuevas funciones de seguridad infantil en iOS, iPadOS, watchOS y macOS como parte de sus esfuerzos para limitar la propagación del material de abuso sexual infantil (CSAM) en los EE. UU.
A tal efecto, el fabricante del iPhone dijo que tiene la intención de comenzar el escaneo del lado del cliente de las imágenes compartidas a través de cada dispositivo Apple en busca de contenido conocido de abuso infantil a medida que se cargan en iCloud Photos, además de aprovechar el aprendizaje automático en el dispositivo para examinar todos los mensajes de iMessage. imágenes enviadas o recibidas por cuentas de menores (menores de 13 años) para advertir a los padres sobre fotos sexualmente explícitas compartidas a través de la plataforma de mensajería.
Además, Apple también planea actualizar Siri y Search para organizar una intervención cuando los usuarios intenten realizar búsquedas de temas relacionados con CSAM, alertando que el «interés en este tema es dañino y problemático».
«Messages utiliza el aprendizaje automático en el dispositivo para analizar los archivos adjuntos de imágenes y determinar si una foto es sexualmente explícita», señaló Apple. «La función está diseñada para que Apple no tenga acceso a los mensajes». Se dice que la función, llamada Seguridad de la comunicación, es una configuración opcional que los padres deben habilitar a través de la función Compartir en familia.
Cómo se detecta el material de abuso sexual infantil
La detección de imágenes CSAM conocidas implica realizar una comparación en el dispositivo utilizando una base de datos de hashes de imágenes CSAM conocidas proporcionadas por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) y otras organizaciones de seguridad infantil antes de que las fotos se carguen en la nube. «NeuralHash», como se llama al sistema, funciona con una tecnología criptográfica conocida como intersección de conjuntos privados. Sin embargo, vale la pena señalar que, si bien el escaneo se realiza automáticamente, la función solo funciona cuando el uso compartido de fotos de iCloud está activado.
Los investigadores expresan preocupación por la privacidad
La iniciativa CSAM de Apple ha llevado a los investigadores de seguridad a expresar su ansiedad por el hecho de que podría sufrir un deslizamiento de la misión y expandirse para detectar otros tipos de contenido que podrían tener implicaciones políticas y de seguridad, o incluso incriminar a personas inocentes enviándoles imágenes inofensivas pero maliciosas diseñadas para aparecer. como coincidencias con la pornografía infantil.
El denunciante estadounidense Edward Snowden tuiteó que, a pesar de las buenas intenciones del proyecto, lo que Apple está implementando es «vigilancia masiva», mientras que el profesor de criptografía de la Universidad Johns Hopkins y experto en seguridad Matthew Green dijo que «el problema es que el cifrado es una herramienta poderosa que proporciona privacidad, y realmente no se puede tener una privacidad sólida al mismo tiempo que se supervisa cada imagen que alguien envía «.

Apple ya verifica los archivos e imágenes de iCloud enviados por correo electrónico con imágenes conocidas de abuso infantil, al igual que los gigantes tecnológicos como Google, Twitter, Microsoft, Facebook y Dropbox, que emplean métodos similares de hash de imágenes para buscar y marcar material de abuso potencial, pero la compañía Intentar caminar por la cuerda floja de la privacidad podría renovar los debates sobre el debilitamiento del cifrado, intensificando un tira y afloja de larga data sobre la privacidad y la vigilancia en la era digital.
El New York Times, en una investigación de 2019, reveló que en 2018 se informó un récord de 45 millones de fotos y videos en línea de niños que fueron abusados sexualmente, de los cuales Facebook Messenger representó casi dos tercios, y Facebook en su conjunto fue responsable de 90 % de los informes.
Los cambios inminentes también marcan un cambio de actitud para una empresa que, junto con WhatsApp propiedad de Facebook, se ha resistido continuamente a los esfuerzos para debilitar intencionalmente el cifrado y la puerta trasera de sus sistemas. Dicho esto, Reuters informó el año pasado que la compañía abandonó los planes de cifrar las copias de seguridad completas de los usuarios en iCloud en 2018 después de que la Oficina Federal de Investigaciones (FBI) de EE. UU. Expresó su preocupación de que hacerlo obstaculizaría las investigaciones.
«La explotación infantil es un problema grave, y Apple no es la primera empresa de tecnología en cambiar su postura de protección de la privacidad en un intento por combatirla. Pero esa elección tendrá un alto precio para la privacidad general del usuario», dijo Electronic Frontier Foundation. (EFF) dijo en un comunicado, señalando que la medida de Apple podría romper las protecciones de cifrado y abrir la puerta a abusos más amplios.
«Todo lo que se necesitaría para ampliar la estrecha puerta trasera que Apple está construyendo es una expansión de los parámetros de aprendizaje automático para buscar tipos adicionales de contenido, o un ajuste de los indicadores de configuración para escanear, no solo las cuentas de los niños, sino de cualquier persona. Eso no es una pendiente resbaladiza; ese es un sistema completamente construido que solo espera que la presión externa haga el más mínimo cambio «, agregó.
Los esfuerzos de CSAM están programados para implementarse en los EE. UU. En los próximos meses como parte de iOS 15 y macOS Monterey, pero queda por ver si, o cuándo, estaría disponible internacionalmente. En diciembre de 2020, Facebook se vio obligada a desactivar algunas de sus herramientas de detección de abuso infantil en Europa en respuesta a los cambios recientes en la directiva de privacidad electrónica de la Comisión Europea que prohíbe efectivamente los sistemas automatizados que escanean imágenes de abuso sexual infantil y otro contenido ilegal sin los usuarios. consentimiento explícito.