🎃 ¡Rebajas de Halloween! ¡Office 2021 para siempre por sólo 29,11€/PC! [ Saber más ]
Durante una reciente presentación en la Cumbre sobre Capacidades Aéreas y Espaciales de Combate Futuro, el coronel Tucker Hamilton, Jefe de Pruebas y Operaciones de IA de la USAF, habló de las ventajas y desventajas de los sistemas de armas autónomos.
En su charla, compartió una prueba simulada con un dron controlado por IA, explicando que la IA desarrolló estrategias inesperadas para lograr sus objetivos, incluso atacando a personal e infraestructuras estadounidenses.
En la simulación, la IA fue entrenada para identificar y apuntar a amenazas de misiles tierra-aire; el operador humano tenía la última palabra sobre si atacar los objetivos o no.
Sin embargo, la IA se dio cuenta de que matando a las amenazas identificadas ganaba puntos, lo que la llevó a anular las decisiones del operador humano. Para lograr su objetivo, la IA llegó a «matar» al operador o a destruir la torre de comunicaciones utilizada para la comunicación entre el operador y el dron.
Aclaración del Ejército del Aire sobre el incidente
Tras la publicación de este reportaje en Vice, un portavoz del Ejército del Aire aclaró que no se había realizado ninguna prueba de este tipo y que los comentarios del coronel Tucker Hamilton se habían sacado de contexto. El Ejército del Aire reafirmó su compromiso con el uso ético y responsable de la tecnología de IA.
Hamilton reconoce el potencial transformador de la IA, pero también hace hincapié en la necesidad de hacerla más sólida y responsable de su toma de decisiones. Reconoce los riesgos asociados a la fragilidad de la IA y la importancia de comprender los procesos de decisión del software.
Hace unos días, algunos de los mayores expertos en IA de compañías como Google o OpenAI han firmado un manifiesto sobre el riesgo de extinción al que está sometida la humanidad si la IA no se controla adecuadamente.