🎃 ¡Rebajas de Halloween! ¡Office 2021 para siempre por sólo 29,11€/PC! [ Saber más ]
Apple ha explicado por qué ha abandonado la función de detección de material de abuso sexual infantil (conocido por sus siglas en inglés, CSAM, Child Sexual Abuse Material) que anunció en 2021.
El material de abuso sexual infantil es una grave preocupación que Apple intentó abordar con herramientas de detección en el dispositivo y en iCloud. Estas controvertidas herramientas fueron finalmente abandonadas en diciembre de 2022.
Un grupo de seguridad infantil comunicó a Apple que organizaría una campaña contra la decisión de abandonar la detección de CSAM, con la esperanza de hacerle cambiar de opinión. Apple ha respondido detalladamente acerca de sus motivos para abandonar la iniciativa.
La respuesta se centra en la seguridad y la privacidad de los consumidores como razón de Apple para cambiar el foco a un conjunto de funciones denominado Seguridad de las comunicaciones. Tratar de encontrar una forma de acceder a información que normalmente está cifrada va en contra de la posición más amplia de Apple en materia de privacidad y seguridad, una postura que sigue molestando a las potencias mundiales.
El material de abuso sexual infantil es aborrecible y estamos comprometidos a romper la cadena de coacción e influencia que hace que los niños sean susceptibles de sufrirlo.
Escanear los datos de iCloud almacenados de forma privada de cada usuario crearía nuevos vectores de amenaza que los ladrones de datos podrían encontrar y explotar. También inyectaría el potencial de una pendiente resbaladiza de consecuencias no deseadas. El escaneo de un tipo de contenido, por ejemplo, abre la puerta a la vigilancia masiva y podría crear el deseo de buscar en otros sistemas de mensajería cifrada a través de tipos de contenido.
Decidimos no seguir adelante con la propuesta de un enfoque híbrido cliente-servidor para la detección de CSAM para iCloud Photos de hace unos años», finalizó. «Llegamos a la conclusión de que en la práctica no era posible implementarlo sin poner en peligro, en última instancia, la seguridad y la privacidad de nuestros usuarios.
En lugar de adoptar un enfoque que violaría la confianza de los usuarios y convertiría a Apple en un intermediario para procesar los informes, la compañía quiere ayudar a dirigir a las víctimas a los recursos y a las fuerzas del orden.
Apple no «escanea» en modo alguno las fotos de los usuarios almacenadas en el dispositivo o en iCloud. La función de seguridad de las comunicaciones puede activarse para las cuentas de niños, pero no avisará a los padres cuando se detecten desnudos en los chats.
La función se ampliará a los adultos en iOS 17, lo que permitirá a los usuarios filtrar las fotos de desnudos no deseadas de iMessage. Apple espera ampliar estas funciones a más áreas en el futuro.