IA

New York Times critica el algoritmo español VioGén que predice el riesgo de violencia de género

☀️ ¡Rebajas VIP-URcdkey! ¡Windows 11 por 18€ y Office 2016 por 23€! [ Saber más ]

El prestigioso periódico New York Times ha publicado un artículo titulado «Un algoritmo dijo a la policía que estaba a salvo. Entonces su marido la mató».

Este artículo versa sobre el algoritmo de VioGén que utiliza la policía en España para evaluar el riesgo de nuevas agresiones en casos de violencia doméstica, basándose en una serie de preguntas cerradas que los oficiales de policía deben completar.

El caso de Lobna Hemid, una residente española que denunció un ataque violento por parte de su esposo, es uno de los fracasos más sonados de este sistema. Tras reportar el incidente a la policía, se utilizó el cuestionario y el algoritmo VioGén para evaluar su situación, determinando que estaba en «bajo riesgo».

Lamentablemente, este diagnóstico fue fatalmente erróneo. Siete semanas después, Lobna fue asesinada por su esposo, quien luego se suicidó.

El caso de Lobna Hemid no es un incidente aislado. Según el Ministerio del Interior de España, desde 2007, al menos 247 mujeres han sido asesinadas por sus parejas o exparejas después de haber sido evaluadas por VioGén. Aunque este número representa una pequeña fracción de los casos de violencia de género, subraya los fallos fallas de este sistema.

 

La dependencia de algoritmos en la toma de decisiones

España es un ejemplo de cómo los gobiernos están recurriendo cada vez más a algoritmos para tomar decisiones críticas en la sociedad. Desde su implementación, VioGén ha evaluado a 92.000 víctimas activas de violencia de género, de las cuales el 83% ha sido clasificado como de bajo riesgo. Sin embargo, un número significativo de mujeres, evaluadas como de riesgo bajo o insignificante, han sido víctimas de nuevos ataques, a veces con consecuencias fatales.

El sistema VioGén fue diseñado para ayudar a las fuerzas del orden a identificar y proteger a las mujeres más vulnerables. En teoría, los casos considerados de alto riesgo reciben una mayor protección, como patrullas policiales regulares y acceso a refugios. Sin embargo, las críticas señalan que la dependencia en el algoritmo puede deshumanizar el proceso y absolver a la policía de la responsabilidad de evaluar adecuadamente las necesidades de las víctimas.

Un problema importante es la calidad de la información que se introduce en el sistema. Factores como el miedo, la vergüenza y la dependencia económica pueden impedir que las víctimas proporcionen información completa. Además, la falta de capacitación adecuada de la policía puede llevar a evaluaciones incompletas.

En algunos casos, las mujeres que han sido mal clasificadas han logrado aumentar su nivel de riesgo solo después de recibir ayuda legal especializada. Esto pone de manifiesto la necesidad de mejorar la capacitación de las fuerzas del orden y la importancia de permitir que las víctimas sean acompañadas por personas de confianza durante las entrevistas.

☀️ ¡Rebajas VIP-URcdkey! ¡Windows 11 por 18€ y Office 2016 por 23€! [ Saber más ]

¿Cuál es tu reacción?
Sorprendido
0%
Feliz
0%
Indiferente
0%
Triste
0%
Enfadado
0%
Aburrido
0%
Incrédulo
0%
¡Buen trabajo!
0%
Sobre el Autor
Luis A.
Luis es el creador y editor jefe de Teknófilo. Se aficionó a la tecnología con un Commodore 64 e hizo sus pinitos programando gracias a los míticos libros de 🛒 'BASIC para niños' con 11 años. Con el paso de los años, la afición a los ordenadores se ha extendido a cualquier cacharrito que tenga una pantalla y CPU.
Comentarios
Deja un comentario

Deja un comentario