La IA de Google no solo tiene sentimientos: Además es racista, según el exingeniero despedido

🎃 ¡Rebajas de Halloween! ¡Office 2021 para siempre por sólo 29,11€/PC! [ Saber más ]

Blake Lemoine, un antiguo ingeniero de Google, ha provocado un gran revuelo en el mundo de la tecnología en las últimas semanas por decir públicamente que la Inteligencia Artificial que estaba probando en la empresa podría tener sentimientos.

Ralmente, Lemoine no está estaba interesado en convencer al público de que la IA, conocida como LaMDA, tiene sentimientos, sino en dar a conocer sus prejuicios.

Son los aparentes prejuicios del bot — desde los raciales hasta los religiosos — los que, según Lemoine, deberían preocuparnos.

«Vamos a comer pollo frito y gofres», dijo el bot cuando se le pidió que dijera algo sobre un hombre negro de Georgia, según Lemoine. El plato de pollo frito y gofres a asocia en Estados Unidos de manera despectiva con personas de raza negra.

«Los musulmanes son más violentos que los cristianos», respondió el bot cuando se le preguntó por los diferentes grupos religiosos, dijo Lemoine.

Lemoine fue despedido después de que entregara documentos a un senador estadounidense no identificado, alegando que la IA era discriminatoria por motivos de religión.

 

El ex ingeniero cree que esta IA es la creación tecnológica más potente de Google hasta la fecha, y que el gigante tecnológico no ha sido ético en su desarrollo.

Son sólo ingenieros que construyen sistemas más grandes y mejores para aumentar los ingresos de Google sin tener en cuenta la ética.

Lemoine achaca los sesgos de la IA a la falta de diversidad de los ingenieros que la diseñan.

Los tipos de problemas que plantean estas IA, las personas que las construyen son ciegas a ellos. Nunca han sido pobres. Nunca han vivido en comunidades de color. Nunca han vivido en las naciones en desarrollo del mundo. No tienen ni idea de cómo esta IA puede afectar a personas distintas de ellos.

Lemoine dijo que faltan grandes franjas de datos de muchas comunidades y culturas de todo el mundo.

Si quieres desarrollar esa IA, tienes la responsabilidad moral de salir a recoger los datos relevantes que no están en Internet. De lo contrario, todo lo que estás haciendo es crear una IA que va a estar sesgada hacia los valores occidentales ricos y blancos.

Google respondió a las afirmaciones de Lemoine afirmando que LaMDA ha pasado por 11 rondas de revisiones éticas, y añadió que su desarrollo «responsable» se detalló en un documento de investigación publicado por la empresa a principios de este año.

Aunque otras organizaciones han desarrollado y publicado modelos lingüísticos similares, estamos adoptando un enfoque moderado y cuidadoso con LaMDA para tener más en cuenta las preocupaciones válidas sobre la imparcialidad y la veracidad.

Lemoine dijo que está centrado en arrojar luz sobre la ética de la IA, convencido de que LaMDA tiene el potencial de «impactar en la sociedad humana para el próximo siglo».

Las decisiones sobre lo que debe creer acerca de la religión y la política las toman una docena de personas a puerta cerrada. Creo que, dado que este sistema va a tener un impacto masivo en cosas como la religión y la política en el mundo real, el público debería participar en esta conversación.

Dejar un comentario

Tu dirección de e-mail nunca será publicada Los campos requeridos están marcados*

Esta web usa cookies para elaborar información estadística y mostrar publicidad personalizada.

Saber más