OpenAI confirma que los detectores de textos escritos por ChatGPT no funcionan
La semana pasada, OpenAI publicó consejos para educadores que están utilizando ChatGPT como apoyo en sus clases.
En un conjunto de preguntas y respuestas relacionadas, también admiten oficialmente lo que ya sabemos: Los detectores de textos escritos por IA no funcionan, a pesar de que se utilizan con frecuencia para castigar a los estudiantes con falsos positivos.
En una sección de las preguntas frecuentes titulada «¿Funcionan los detectores de IA?», OpenAI escribe:
En pocas palabras, no. Aunque algunos (incluido OpenAI) han lanzado herramientas que pretenden detectar contenido generado por IA, ninguna de ellas ha demostrado distinguir de forma fiable entre contenido generado por IA y contenido generado por humanos.
Estos detectores suelen arrojar falsos positivos debido a que se basan en métricas de detección no probadas. Lo que ocurre es que no hay nada especial en el texto escrito por la IA que lo distinga claramente del escrito por humanos, y los detectores pueden ser engañados reformulando el texto.
OpenAI retiró hace unas semanas su AI Classifier, una herramienta experimental diseñada para detectar texto escrito con IA. Su índice de precisión era abismal: un 26%.
La nueva FAQ de OpenAI también aborda otro gran error: ChatGPT no puede saber si el texto está escrito con IA o no. OpenAI escribe:
Además, ChatGPT no tiene ‘conocimiento’ de qué contenido podría estar generado por IA. A veces se inventa respuestas a preguntas como «¿has escrito tú este [ensayo]?» o «¿podría haber sido escrito por la IA?». Estas respuestas son aleatorias y no tienen fundamento.
En esta línea, OpenAI también aborda la propensión de sus modelos de IA a confabular información falsa:
A veces, ChatGPT suena convincente, pero puede darte información incorrecta o engañosa (a menudo llamada ‘alucinación’ en la literatura). Incluso puede inventarse cosas como citas o citas, así que no lo uses como única fuente para investigar.
Aunque los detectores automáticos de IA no funcionan, eso no significa que un humano nunca pueda detectar la escritura de IA. Por ejemplo, un profesor familiarizado con el estilo de escritura típico de un alumno puede darse cuenta cuando su estilo o capacidad cambian de repente.
Además, algunos intentos chapuceros de hacer pasar trabajos generados por IA por escritos por humanos pueden dejar señales, como la frase «como un modelo de lenguaje de IA», que significa que alguien copió y pegó la salida de ChatGPT sin preocuparse en leerlo.