Los coches autonómos tendrán que ser programados para matar… la cuestión es a quién

A model poses in the Rinspeed XchangE electric powered autonomous driving concept car is pictured during the media day ahead of the 84th Geneva Motor Show at the Palexpo Arena in Geneva March 5, 2014. The Geneva Motor Show will run from March 6 to 16. REUTERS/Arnd Wiegmann (SWITZERLAND - Tags: TRANSPORT BUSINESS)

🎃 ¡Rebajas de Halloween! ¡Office 2021 para siempre por sólo 29,11€/PC! [ Saber más ]

Pocos tienen dudas de que los coches autonómos son el futuro, y prueba de ello es que grandes compañías como Android y, según los rumores, Apple, están invirtiendo importantes cantidades de dinero en desarrollar vehículos que conduzcan por sí solos.

Podemos imaginar un futuro en el que los coches nos lleven a nuestros destinos sin que nosotros tengamos que intervenir en la conducción, y que después conduzcan de vuelta a casa o a un aparcamiento mientras nosotros pasamos el día en el trabajo o de compras por el centro de la ciudad.

Entrada Relacionada

Sin embargo, hay un dilema ético que lleva de cabeza a los fabricantes de coches y ha sido estudiado por la Universidad de Cornwell: ¿cómo debería comportarse un vehículo en caso de un accidente inminente con daños inevitables? ¿debería minimizar la pérdida total de vidas humanas, incluso aunque eso suponga sacrificar al conductor?

Por ejemplo, imaginemos que un coche autónomo circula por una carretera en la que, de repente, aparecen diez personas cruzando la vía por delante del coche. La colisión con estas personas supondría posiblemente la muerte de algunas de ellas y, la única forma de evitarlo, es que el coche dé un volantazo que lo estrelle contra un pared, lo que llevaría a la muerte casi segura del ocupante.

¿Qué debería hacer el vehículo? ¿Minimizar el número de víctimas mortales y, por tanto, sacrificar al conductor? ¿O debería proteger a toda costa a su conductor aún a riesgo de acabar con más vidas humanas?

Otro factor que se podría ponderar es el concepto de culpabilidad. ¿Debería influir en la decisión del vehículo si esas diez personas están cruzando por donde no deben? ¿O la supervivencia de las personas está por encima de la culpabilidad? También se podría tener en cuenta si en el vehículo viajan niños, que tienen una vida por delante más larga que los adultos y menos control sobre la presencia en el vehículo.

La respuesta a estas preguntas podrían influir en la compra de este tipo de vehículos. ¿Comprarías un coche autónomo que estuviera dispuesto a sacrificar la vida de su ocupante por el «bien común»? 

Y si un fabricante ofrece distintos algoritmos que permitan elegir «a quien matar», y el dueño del vehículo selecciona deliberadamente uno de ellos ¿se le puede considerar responsable de las consecuencias que tenga su elección sobre daños a otras personas?

Posiblemente estas solo sean las primeras cuestiones de una larga lista de dilemas morales que se nos presentarán en el futuro. Desde luego, no parecía un asunto tan complejo cuando solamente veíamos coches autónomos en las películas.

Dejar un comentario

Tu dirección de e-mail nunca será publicada Los campos requeridos están marcados*

Esta web usa cookies para elaborar información estadística y mostrar publicidad personalizada.

Saber más