Apple: El sistema para identificar fotos de abusos a menores no crea una puerta trasera

🎃 ¡Rebajas de Halloween! ¡Office 2021 para siempre por sólo 29,11€/PC! [ Saber más ]

Apple ha respondido a las preocupaciones sobre sus próximas medidas para limitar la difusión de material de abuso infantil.

La compañía asegura que su herramienta para localizar imágenes de abuso infantil en el dispositivo de un usuario no crea una puerta trasera ni reduce la privacidad.

La compañía reiteró que no escanea toda la biblioteca de fotos del propietario de un dispositivo para buscar imágenes abusivas, sino que utiliza criptografía para comparar las imágenes con una base de datos conocida proporcionada por el Centro Nacional para Niños Desaparecidos y Explotados.

Algunos defensores de la privacidad se mostraron preocupados tras el anuncio de Apple de que la empresa escanearía toda la colección de fotos de un usuario. Sin embargo, la empresa está utilizando un algoritmo en el propio dispositivo, no en sus servidores, para detectar las imágenes sexualmente explícitas.

Apple dijo que revisaría manualmente las fotos abusivas del dispositivo de un usuario sólo si el algoritmo encontraba un determinado número de ellas. La compañía también dijo que puede ajustar el algoritmo con el tiempo.

Apple dijo que no está rompiendo el cifrado de extremo a extremo con una nueva función en la aplicación Mensajes que analiza las fotos enviadas a o desde el iPhone de un niño en busca de material explícito, ni la empresa tendrá acceso a los mensajes de los usuarios.

El jueves, la Electronic Frontier Foundation dijo que Apple está abriendo una puerta trasera con las nuevas herramientas.

Es imposible construir un sistema de escaneo del lado del cliente que sólo pueda utilizarse para imágenes sexualmente explícitas enviadas o recibidas por niños.

En consecuencia, incluso un esfuerzo bienintencionado por construir un sistema de este tipo romperá las promesas clave del propio cifrado del cliente de mensajería y abrirá la puerta a abusos más amplios.

Apple dijo que el sistema ha estado en desarrollo durante años y no fue construido para que los gobiernos vigilaran a los ciudadanos. El sistema sólo está disponible en EE.UU., dijo Apple, y sólo funciona si el usuario tiene activado Fotos de iCloud.

Dan Boneh, un investigador de criptografía que ha trabajado con Apple en el proyecto, defendió las nuevas herramientas.

Este problema afecta a muchos proveedores de la nube. Algunos proveedores de la nube abordan este problema escaneando las fotos subidas a la nube. Apple optó por invertir en un sistema más complejo que proporciona la misma funcionalidad, pero lo hace sin que sus servidores miren cada foto.

Dejar un comentario

Tu dirección de e-mail nunca será publicada Los campos requeridos están marcados*

Esta web usa cookies para elaborar información estadística y mostrar publicidad personalizada.

Saber más