Apple pone fin a su plan para implantar medidas de detección de abuso infantil en el iPhone
En 2021, Apple anunció una serie de nuevas funciones de seguridad infantil, incluida la detección de material de abuso sexual infantil (conocida como CSAM por sus siglas en inglés) para las fotos almacenadas en iCloud.
Sin embargo, la medida fue criticada debido a preocupaciones sobre la privacidad y la compañía la dejó en suspenso. Ahora, Apple ha confirmado que ha puesto fin a sus planes de desplegar el sistema de detección de CSAM.
Cuando se anunció la funcionalidad de escaneo CSAM, Apple dijo que sería capaz de detectar material inapropiado en las fotos de los usuarios que se almacenasen en iCloud basándose en una base de datos de hashes de imágenes de abuso infantil.
De este modo, la empresa podría detectar dichas fotos mediante el procesamiento en el dispositivo sin tener que ver nunca las fotos de los usuarios.
Antes de que una imagen se almacene en Fotos de iCloud, se realiza un proceso de comparación en el dispositivo de esa imagen con el conjunto de firmas digitales de imágenes de abuso infantil conocidas. Solo en caso de coincidencia, se llevaría a cabo una verificación manual.
Aún así, el escaneo provocó muchas críticas por parte de algunos grupos de usuarios. En una declaración el año pasado, la compañía dijo que había optado por «tomarse más tiempo en los próximos meses para recoger opiniones y hacer mejoras antes de lanzar estas características de seguridad infantil de importancia crítica.»
Apple ha decidido ahora poner fin al escaneo CSAM en las fotos que se suben a iCloud . Vale la pena señalar, sin embargo, que otras características de seguridad infantil como las restricciones en iMessage siguen estando disponibles en iOS