La controversia de CSAM de Apple continúa: la organización benéfica dice que la empresa está subestimando. La controversia de Apple sobre CSAM continúa: la organización benéfica dice que la empresa está subreportando.
Controversia de Apple CSAM: Acusaciones de la NSPCC
La controversia de Apple CSAM no parece desaparecer, ya que una organización benéfica británica acusó a la empresa de subreportar incidentes en sus plataformas.
Sin embargo, el informe parece basarse al menos en parte en una falta de comprensión de cómo funciona el cifrado de extremo a extremo…
La Sociedad Nacional para la Prevención de la Crueldad contra los Niños (NSPCC) del Reino Unido señaló dos discrepancias aparentes en el informe de Apple sobre materiales de abuso sexual infantil sospechosos (CSAM).
La primera es la gran diferencia entre el número de casos reportados por Apple y otros gigantes tecnológicos, como señala The Guardian.
En 2023, Apple realizó solo 267 informes de CSAM sospechosos en sus plataformas en todo el mundo al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), lo cual contrasta fuertemente con sus competidores de tecnología, con Google informando más de 1,47 millones y Meta informando más de 30,6 millones, según el informe anual del NCMEC.
La segunda es que en realidad hubo más condenas de CSAM que involucraban los servicios de Apple en Inglaterra y Gales de las que la empresa reportó a nivel mundial.
A través de datos recopilados a través de solicitudes de información y compartidos exclusivamente con The Guardian, la organización benéfica infantil descubrió que Apple estuvo implicada en 337 delitos registrados de imágenes de abuso infantil entre abril de 2022 y marzo de 2023 en Inglaterra y Gales […]
“Existe una preocupante discrepancia entre el número de delitos de imágenes de abuso infantil en el Reino Unido que se producen en los servicios de Apple y la casi insignificante cantidad de informes globales de contenido de abuso que hacen a las autoridades”, dijo Richard Collard, jefe de política de seguridad infantil en línea de la NSPCC. «Apple claramente está rezagada en comparación con muchos de sus competidores en la lucha contra el abuso sexual infantil cuando todas las empresas tecnológicas deberían estar invirtiendo en seguridad y preparándose para la implementación de la Ley de Seguridad en Línea en el Reino Unido».
Opinión de 9to5Mac
Algunos de los casos judiciales citados por la NSPCC se refieren a instancias de materiales CSAM enviados en iMessage o FaceTime. Ambos son servicios cifrados de extremo a extremo, lo que significa que Apple no tiene forma de ver el contenido de ningún mensaje, y por lo tanto no puede informarlos. Estos casos se habrán presentado después de que los infractores fueran capturados por otros medios, y luego se les requirió proporcionar acceso a sus dispositivos.
Sin embargo, el otro problema aquí es iCloud. Casi todos los servicios en la nube escanean rutinariamente las huellas digitales de materiales CSAM conocidos en las cargas de los clientes, pero Apple no lo hace.
La empresa cita la privacidad como la razón de esto, y en 2021 anunció planes para un sistema que respetara la privacidad para el escaneo en el dispositivo. Sin embargo, estos se filtraron antes de tiempo, y las repercusiones sobre el potencial de abuso por parte de gobiernos represivos, que podrían obligar a Apple a buscar las firmas de otras imágenes, como carteles de protestas políticas, llevaron a la compañía a posponer y luego abandonar los planes para esto. La empresa incluso terminó utilizando los mismos argumentos que muchos habían hecho en contra de sus propuestas originales.
Como señalamos en su momento, un intento de encontrar un equilibrio entre la privacidad y la responsabilidad pública terminó saliendo mal. Si en cambio Apple simplemente hubiera realizado el mismo escaneo de rutina de cargas utilizado por otras empresas, probablemente no habría habido casi ningún alboroto. Pero hacerlo ahora volvería a convertir el problema en noticia de portada. La empresa realmente está atrapada en una situación sin salida aquí.
Foto: Priscilla Du Preez/Unsplash
FTC: Utilizamos enlaces de afiliados que generan ingresos. Más.