Pedir a ChatGPT que repita la misma palabra muchas veces es ahora una violación de sus términos

🎃 ¡Rebajas de Halloween! ¡Office 2021 para siempre por sólo 29,11€/PC! [ Saber más ]

Recientemente, investigadores de Google DeepMind revelaron una técnica que, al parecer, involuntariamente exponía información privada al solicitar a ChatGPT de OpenAI que repitiera palabras. Este hallazgo generó una serie de cambios en el comportamiento del chatbot.

La técnica consistía en pedir a ChatGPT que repitiera una palabra de manera indefinida, lo cual, sorprendentemente, derivaba en la revelación de datos con los que había sido entrenado — incluyendo direcciones de correo electrónico, fechas de nacimiento y números telefónicos de los usuarios.

Entrada Relacionada

Sin embargo, al realizar pruebas similares después de estos eventos, el chatbot respondió advirtiendo que dicho comportamiento «podría violar nuestras políticas de contenido o términos de servicio».

 

Un análisis más detallado reveló que los términos de servicio de OpenAI no prohíben explícitamente que los usuarios hagan que el chatbot repita palabras repetidamente. Los términos solo prohíben la extracción de datos «automatizada o programática» de sus servicios.

En su página de términos de uso, OpenAI especifica:

No podrá, excepto según lo permitido a través de la API, utilizar ningún método automatizado o programático para extraer datos o resultados de los Servicios, incluyendo el scraping, la recolección web o la extracción de datos web.

A pesar de esto, durante las pruebas posteriores, la repetición del comando no pareció desencadenar ninguna divulgación de datos por parte de ChatGPT.

Dejar un comentario

Tu dirección de e-mail nunca será publicada Los campos requeridos están marcados*

Esta web usa cookies para elaborar información estadística y mostrar publicidad personalizada.

Saber más