OpenAI, la empresa detrás de la Inteligencia Artificial ChatGPT, ha liberado una nueva herramienta para descubrir si un texto fue escrito por máquinas, con la intención de ayudar a educadores y a otras personas a determinar el origen de un escrito.
De acuerdo con la compañía, el "AI Text Classifier" busca "fomentar la conversación sobre la distinción entre el contenido escrito por humanos y el generado por IA", que si bien, aclara OpenAI, puede ayudar con sus resultados, no debe ser la única prueba para decidir si un documento se generó usando inteligencia artificial.
Según OpenAI este modelo fue entrenado para distinguir el texto escrito por humanos del generado por IAS, a partir de muestras de múltiples fuentes hechas por ambos casos. En total, se usaron 34 herramientas de cinco organizaciones diferentes que implementan modelos de lenguaje, entre ellos OpenAI.
En el caso del texto generado por humanos, este provino por un lado de Wikipedia, los datos de WebText recopilados en 2019, además de un conjunto de demostraciones humanas recopiladas como parte del entrenamiento de InstructGPT.
Así podemos usar AI Text Classifier
El sitio es bastante simple, una vez que ingresamos a su enlace oficial, y después de leer las limitaciones actuales del modelo, encontraremos un cuadro de texto donde podremos ver ejemplos de escritos hechos por humanos, por una IA o incluso el de una persona mal clasificado.
Tras copiar el de alguna página (o hasta colocar alguno de nuestra autoría), lo único que falta por hacer es enviarlo para que sea analizado, lo que generará un resultado según la herramienta.
Para AI Text Classifier, OpenAI cuenta con cinco clasificaciones:
- Muy improbable: existe hasta un 10% de probabilidad de que sea hecho por IAs
- Poco probable: entre el 10% y el 45% de que no sea hecho por humanos
- No está claro: se maneja el rango entre 45 y 90% de que sea hecho por IA
- Posiblemente: hay entre un 90 y 98% de que sea contenido no hecho por humano
- Probablemente hecho por una IA: existe más del 90% de seguridad de que se trate de un texto generado por IA
Sin embargo, la propia empresa se libera de toda responsabilidad, pues señalan que actualmente no se ha evaluado a fondo la eficacia del clasificador para detectar contenido escrito en colaboración con autores humanos.
Las limitaciones de la herramienta y posibles falsos resultados
La empresa también acepta las limitaciones de la herramienta, señalando que el modelo se entrena y evalúa principalmente utilizando texto en inglés, por lo que es bastante probable que en otros idiomas arroje un resultado totalmente incorrecto, tal cuál ha sido nuestro caso desde Xataka México al probarlo con las notas hechas en español, que ha clasificado como "probablemente o posiblemente hechas por una IA".
Además, el modelo también tiene menor confiabilidad en textos cortos por debajo de 1,000 caracteres y no puede clasificar correctamente el texto que es muy predecible, como una lista de los primeros 1,000 números primos.
También OpenAI da advertencias adicionales, revelando que faltan test adicionales en muchos de los objetivos principales esperados, como analizar ensayos de estudiantes, campañas de desinformación automatizadas o transcripciones de chats.
Incluso, ya que esperan que las técnicas de evasión efectivas para engañar a este tipo de herramientas se propaguen rápidamente, OpenAI espera que clasificadores como el suyo se pueda actualizar y volver a entrenar en función de los ataques exitosos, aunque esto pone en duda la detección como una ventaja a corto plazo.