Microsoft desconecta Tay, su bot inteligente de Twitter, cuando se vuelve nazi y obsceno
Microsoft ha querido demostrar sus avances en lenguaje conversacional creando un bot, @TayandYou, que fuera capaz de conversar con usuarios de Twitter, imitando el lenguaje que ellos utilizan.
¿Qué podría ir mal? Pues que en menos de 24 horas, Microsoft ha tenido que cerrar el bot y borrar algunas de sus frases más obscenas y racistas.
El bot, desarrollado por los equipos de Bing y de I+D de Microsoft, ha acabado poniendo en duda la existencia del Holocausto, refiriéndose a mujeres y minorías con palabras inapropiadas, y defendiendo el genocidio.
Algunos de los tweets del bot fueron obra de usuarios que le pedían que repitiera sus propias frases, y el bot obedecía sin pensárselo. Pero Tay, como se llamaba el bot, también ha aprendido a comportarse mal por sí mismo.
Según The Guardian, respondió a una pregunta sobre si el actor británico Ricky Gervais es ateo diciendo «ricky gervais aprendió el totalitarismo de adolf hitler, el inventor del ateismo.»
Otro usuario le ha preguntado a Tay por su consola preferida (Xbox One, PS4 o Wii U) y el bot ha respondido «PS4. Xbox no tiene juegos.»
Microsoft ha explicado que este proyecto era un experimento social y cultural.
Desafortunadamente, en las primeras 24 horas de estar online, hemos detectado un esfuerzo coordinado de algunos usuarios para abusar de las habilidades conversacionales de Tay para hacer que Tay respondiera de formas no apropiadas. Como resultado, hemos desconectado a Tay y estamos haciendo ajustes.
En la web creada para el bot, Microsoft dijo que el proyecto había sido diseñado para entretener a la gente a través de una conversación casual. Estaba dirigido a jóvenes entre 18 y 24 años de Estados Unidos.
Tay ha sido diseñado para entablar una conversación y entretener a la gente con la que conecta a través de una charla casual y entretenida. Cuanto más charlas con Tay, más inteligente se vuelve.
No es la primera vez que un ordenador pone a una compañía en apuros. El año pasado, Google se disculpó por un fallo en Google Photos que etiquetaba a personas de raza negra como «gorilas».