La voz original de Darth Vader será generada por IA a partir de ahora
James Earl Jones, con 91 años de edad, ha puesto la voz al icónico villano de Star Wars durante 45 años, comenzando con Star Wars: Episodio IV – Una nueva esperanza en 1977 y concluyendo con una breve línea de diálogo en Star Wars: Episodio IX – El ascenso de Skywalker de 2019.
Durante la creación de la serie de televisión de Obi-Wan Kenobi, Jones dio permiso a Disney para replicar su interpretación vocal de Darth Vader en futuros proyectos utilizando una herramienta de modelado de voz mediante IA.
«Había mencionado que estaba estudiando la posibilidad de acabar con este personaje en particular», dijo Matthew Wood, un editor de sonido supervisor en Lucasfilm, durante una entrevista con Vanity Fair. «Entonces, ¿cómo lo hacemos?».
La respuesta fue Respeecher, un producto de clonación de voz de una empresa de Ucrania que utiliza deep learning para modelar y replicar las voces humanas de una manera casi indistinguible de la real.
Anteriormente, Lucasfilm había utilizado Respeecher para clonar la voz de Mark Hamill para The Mandalorian, y la compañía pensó que la misma tecnología sería ideal para una importante aparición de Darth Vader que requeriría docenas de líneas de diálogo. A partir de grabaciones de archivo de Jones, Respeecher creó un modelo de voz que podía ser «interpretado» por otro actor mediante la tecnología de conversión de voz de la empresa.
Dejando de lado a Vader, Respeecher es consciente de que este tipo de tecnología podría plantear importantes problemas de seguridad, ingeniería social e incluso de derechos de autor si alguien puede imitar la voz de otra persona a partir de muestras grabadas.
En la declaración de ética de la compañía, se dice que la empresa «no permite ningún uso engañoso de nuestra tecnología» y «no utiliza voces sin permiso cuando esto pueda afectar a la privacidad del sujeto o a su capacidad de ganarse la vida.»