🎃 ¡Rebajas de Halloween! ¡Office 2021 para siempre por sólo 29,11€/PC! [ Saber más ]
El asistente de voz Alexa de Amazon recomendó a una niña de 10 años que se electrocutara como parte de un «reto».
Kristin Livdahl publicó en Twitter que el asistente de voz de Amazon sugirió a su pequeña hija electrocutarse cuando esta pidió un reto.
Alexa buscó en la red y encontró el siguiente reto. «Enchufa un cargador de teléfono hasta la mitad en una toma de corriente y luego toca con un centavo la parte de las clavijas que se han quedado fuera».
Livdahl dijo que ella y su hija estaban haciendo algunos «retos físicos» y que su hija quería otro.
Estaba allí mismo y le grité: «¡No, Alexa, no!», como si fuera un perro. Mi hija dice que es demasiado inteligente para hacer algo así de todos modos
Amazon dice que ya ha eliminado el reto de su base de datos.
La confianza del cliente está en el centro de todo lo que hacemos y Alexa está diseñada para proporcionar información precisa, relevante y útil a los clientes». Tan pronto como nos dimos cuenta de este error, tomamos medidas rápidas para solucionarlo.
Asistentes de voz como Google, Siri y Alexa obtienen su información de los motores de búsqueda comunes, pero no tienen la capacidad de verificar efectivamente la información y, por tanto, pueden proporcionar resultados falsos u ofensivos.
No es la primera vez que Alexa se sale del guión. En diciembre, cuando se le preguntó si el Islam es malo, Alexa dijo: «Aquí hay algo que encontré en la web. Según [una página web], el Islam es una religión malvada».