OpenAI no sabe distinguir si un texto es de ChatGPT o un humano y mata a su herramienta para ello - 800Noticias
800Noticias
Tecnología

800 Noticias/FotoReferencial

OpenAI, desarrolladora de ChatGPT, ha matado AI Classifier, la herramienta que permitía a los usuarios detectar si un texto lo ha escrito una inteligencia artificial o, en cambio, lo ha redactado un humano. La plataforma, que se lanzó en enero de este año con una gran cantidad de limitaciones, ya no está disponible. Al acceder a la web se muestra un mensaje conforme la página “no se ha encontrado”.

La compañía dirigida por Sam Altman ha confirmado en la publicación donde presentan AI Classifier, que han decidido eliminar la herramienta a causa de su “baja tasa de precisión”. OpenAI, en concreto, destacaba en su web que AI Classifier solo “identifica correctamente el 26 % del texto escrito por IA”. Es un porcentaje bastante pequeño.

La herramienta de OpenAI, además, detectaba falsos positivos un 9 % de las veces. Esto quiere decir que, en algunas ocasiones, un texto escrito como IA lo califica como escrito por humano o viceversa.

AI Classifier, por otro lado, no ofrecía un resultado claro a la hora de detectar si un texto estaba escrito una IA o un humano. Simplemente, los categorizaba como “poco claro o posible”, en el caso de que no pudiese detectar con precisión si un texto se ha generado por ChatGPT u otra IA. O como “muy improbable” que ese texto se haya escrito por un humano.

Además, la firma aseguraba que para que la herramienta detectase un texto correctamente, este debía tener más de 1.000 caracteres para que fuese un poco más fiable a la hora de detectar texto. Aunque OpenAI subrayaba que “incluso los textos más largos a veces son etiquetados incorrectamente por el clasificador”.

Amplia esta información en Hipertextual

Únete a nuestro canal de Telegram, información sin censura: https://t.me/canal800noticias

Síguenos por @800noticias