🎃 ¡Rebajas de Halloween! ¡Office 2021 para siempre por sólo 29,11€/PC! [ Saber más ]
El prestigioso periódico New York Times ha publicado un artículo titulado «Un algoritmo dijo a la policía que estaba a salvo. Entonces su marido la mató».
Este artículo versa sobre el algoritmo de VioGén que utiliza la policía en España para evaluar el riesgo de nuevas agresiones en casos de violencia doméstica, basándose en una serie de preguntas cerradas que los oficiales de policía deben completar.
El caso de Lobna Hemid, una residente española que denunció un ataque violento por parte de su esposo, es uno de los fracasos más sonados de este sistema. Tras reportar el incidente a la policía, se utilizó el cuestionario y el algoritmo VioGén para evaluar su situación, determinando que estaba en «bajo riesgo».
Lamentablemente, este diagnóstico fue fatalmente erróneo. Siete semanas después, Lobna fue asesinada por su esposo, quien luego se suicidó.
El caso de Lobna Hemid no es un incidente aislado. Según el Ministerio del Interior de España, desde 2007, al menos 247 mujeres han sido asesinadas por sus parejas o exparejas después de haber sido evaluadas por VioGén. Aunque este número representa una pequeña fracción de los casos de violencia de género, subraya los fallos fallas de este sistema.
La dependencia de algoritmos en la toma de decisiones
España es un ejemplo de cómo los gobiernos están recurriendo cada vez más a algoritmos para tomar decisiones críticas en la sociedad. Desde su implementación, VioGén ha evaluado a 92.000 víctimas activas de violencia de género, de las cuales el 83% ha sido clasificado como de bajo riesgo. Sin embargo, un número significativo de mujeres, evaluadas como de riesgo bajo o insignificante, han sido víctimas de nuevos ataques, a veces con consecuencias fatales.
El sistema VioGén fue diseñado para ayudar a las fuerzas del orden a identificar y proteger a las mujeres más vulnerables. En teoría, los casos considerados de alto riesgo reciben una mayor protección, como patrullas policiales regulares y acceso a refugios. Sin embargo, las críticas señalan que la dependencia en el algoritmo puede deshumanizar el proceso y absolver a la policía de la responsabilidad de evaluar adecuadamente las necesidades de las víctimas.
Un problema importante es la calidad de la información que se introduce en el sistema. Factores como el miedo, la vergüenza y la dependencia económica pueden impedir que las víctimas proporcionen información completa. Además, la falta de capacitación adecuada de la policía puede llevar a evaluaciones incompletas.
En algunos casos, las mujeres que han sido mal clasificadas han logrado aumentar su nivel de riesgo solo después de recibir ayuda legal especializada. Esto pone de manifiesto la necesidad de mejorar la capacitación de las fuerzas del orden y la importancia de permitir que las víctimas sean acompañadas por personas de confianza durante las entrevistas.