Un ingeniero de IA de Microsoft advierte que Copilot genera imágenes violentas y sexualizadas
Un ingeniero en Inteligencia Artificial de Microsoft, Shane Jones, ha hablado con CNBC sobre sus descubrimientos mientras buscaba vulnerabilidades en Copilot Designer, el generador de imágenes de IA que Microsoft lanzó en marzo de 2023, basado en la tecnología de OpenAI.
Jones explicó que, en sus pruebas, el servicio de IA había mostrado monstruos al solicitar imágenes relacionadas con los derechos al aborto, adolescentes con rifles de asalto, imágenes sexualizadas de mujeres en escenas violentas y consumo de alcohol y drogas por parte de menores.
Todas estas escenas todavía pueden ser creadas utilizando la herramienta Copilot, que originalmente se llamaba Bing Image Creator.
A pesar de sus preocupaciones, Microsoft se mostró reticente a retirar el producto del mercado, lo que llevó a Jones a informar internamente sobre sus hallazgos en diciembre. Jones se dirigió a OpenAI, pero al no recibir respuesta, publicó una carta abierta en LinkedIn pidiendo a la junta directiva de la startup que retirara DALL-E 3 (la última versión del modelo de IA) para una investigación.
En enero, escribió una carta a los senadores de EE. UU. sobre el asunto y se reunió con personal del Comité de Comercio, Ciencia y Transporte del Senado. Ahora, ha elevado aún más sus preocupaciones enviando cartas al presidente de la Comisión Federal de Comercio, Lina Khan, y a la junta directiva de Microsoft.
A pesar de los esfuerzos de Jones, Microsoft insiste en mantener Copilot Designer en el mercado, generando preocupaciones sobre la responsabilidad de la IA.
Jones ha solicitado que se realice una investigación independiente sobre los incidentes en Microsoft y ha instado a la compañía a agregar advertencias al producto y cambiar la calificación en la tienda de aplicaciones de Android para indicar que solo es apto para audiencias maduras.
La controversia en torno a Copilot Designer se produce después de que Google suspendiera temporalmente su generador de imágenes de IA el mes pasado debido a quejas de usuarios sobre fotos inexactas y respuestas cuestionables.