Pedir a ChatGPT que repita la misma palabra muchas veces es ahora una violación de sus términos
Recientemente, investigadores de Google DeepMind revelaron una técnica que, al parecer, involuntariamente exponía información privada al solicitar a ChatGPT de OpenAI que repitiera palabras. Este hallazgo generó una serie de cambios en el comportamiento del chatbot.
La técnica consistía en pedir a ChatGPT que repitiera una palabra de manera indefinida, lo cual, sorprendentemente, derivaba en la revelación de datos con los que había sido entrenado — incluyendo direcciones de correo electrónico, fechas de nacimiento y números telefónicos de los usuarios.
Sin embargo, al realizar pruebas similares después de estos eventos, el chatbot respondió advirtiendo que dicho comportamiento «podría violar nuestras políticas de contenido o términos de servicio».
Un análisis más detallado reveló que los términos de servicio de OpenAI no prohíben explícitamente que los usuarios hagan que el chatbot repita palabras repetidamente. Los términos solo prohíben la extracción de datos «automatizada o programática» de sus servicios.
En su página de términos de uso, OpenAI especifica:
No podrá, excepto según lo permitido a través de la API, utilizar ningún método automatizado o programático para extraer datos o resultados de los Servicios, incluyendo el scraping, la recolección web o la extracción de datos web.
A pesar de esto, durante las pruebas posteriores, la repetición del comando no pareció desencadenar ninguna divulgación de datos por parte de ChatGPT.