🎃 ¡Rebajas de Halloween! ¡Office 2021 para siempre por sólo 29,11€/PC! [ Saber más ]
Ante el éxito mediático de ChatGPT, Google decidió contraatacar lanzando su propio chatbot de IA, Bard, a principios de febrero. Poco antes, Google pidió a sus empleados que probaran la herramienta, según Bloomberg.
La conclusión de un empleado fue que Bard era «un mentiroso patológico», según las capturas de pantalla de una discusión interna. Otro lo calificó de «descojonante».
Un empleado escribió que cuando le pedían sugerencias sobre cómo aterrizar un avión, Bard solía dar consejos que provocarían un accidente; otro dijo que daba respuestas sobre submarinismo «que probablemente provocarían lesiones graves o la muerte».
En febrero, un empleado planteó sus dudas en un grupo interno de mensajes: «Bard es peor que inútil: por favor, no lo lancen». La nota fue vista por casi 7.000 personas, muchas de las cuales coincidían en que las respuestas de la herramienta de IA eran contradictorias o incluso atrozmente erróneas en simples consultas sobre hechos.
Aún con todo, Google lanzó Bard. Según dieciocho trabajadores, con Bard, la compañía está proporcionando información de baja calidad, dejando a un lado compromisos éticos.
El grupo de trabajo sobre ética que Google se comprometió a reforzar está ahora desprovisto de poder y desmoralizado, según los trabajadores actuales y antiguos. A los miembros del personal responsables de la seguridad y las implicaciones éticas de los nuevos productos se les ha dicho que no se metan en medio ni intenten acabar con ninguna de las herramientas de IA generativa en desarrollo.
Al ser preguntados, Google dijo que la IA responsable sigue siendo una de las principales prioridades de la compañía. Sin embargo, el equipo que trabaja en la IA responsable se deshizo de al menos tres miembros en una ronda de despidos en enero en la empresa, incluido el jefe de gobierno y programas.