Existe una herramienta capaz de detectar con un 99% de certeza si se utiliza ChatGPT, la IA de OpenAI. Sin embargo, la empresa no ha decidido lanzarla debido a un debate interno sobre su impacto en diversas áreas, incluyendo la posible reducción del número de usuarios que utilizan su servicio.
El informe proviene de The Wall Street Journal, que indica que este proyecto lleva aproximadamente dos años en desarrollo. Se trata de una herramienta distinta a una anterior, que permitía detectar IA con una baja tasa de precisión.
Las ventajas de esta herramienta
La nueva herramienta emplea un método de marca de agua en el texto, que permite identificar contenido generado específicamente por esta IA. Según TechCrunch, la compañía ha decidido tomar un "enfoque deliberado" respecto a su lanzamiento, debido a las complejidades involucradas y su posible impacto más allá de OpenAI.
Un portavoz de la empresa indicó al medio que este método es "técnicamente prometedor", pero conlleva riesgos importantes, como la susceptibilidad a ser eludido por malos actores y su posible afectación a grupos que no hablan inglés.
Aunque no se han especificado detalles precisos sobre el funcionamiento de la nueva herramienta, el informe de The Wall Street Journal señala que operaría mediante "pequeños cambios" en la selección de palabras por parte de ChatGPT. Esto resultaría en una marca de agua "invisible" para los usuarios, pero detectable mediante una herramienta separada.
Precisa, pero con defectos
En una publicación sobre la detección de contenidos generados por IA, OpenAI menciona que la marca de agua ha demostrado ser "altamente precisa" y efectiva contra manipulaciones localizadas, como la paráfrasis.
Sin embargo, la compañía reconoce que este método no es tan robusto frente a manipulaciones globales, como el uso de sistemas de traducción, la reformulación con otros modelos generativos, o al pedirle a la IA que agregue un carácter especial entre cada palabra y luego eliminarlo.
Por estas razones, OpenAI afirma que su método es "trivial de eludir por parte de malos actores", además de que su uso podría estigmatizar a los hablantes no nativos de inglés que utilicen la IA para escribir.
Los esfuerzos de OpenAI en el pasado
En enero de 2023, OpenAI lanzó una herramienta con el objetivo de ayudar a identificar si un texto había sido escrito por una IA, principalmente en contextos educativos.
Esta herramienta, llamada AI Text Classifier, buscaba diferenciar contenido generado por humanos de aquel producido por inteligencias artificiales. Sin embargo, no podía considerarse una prueba definitiva de su origen.
En su momento, se indicó que esta herramienta presentaba limitaciones, como clasificar contenido en español como probablemente generado por una IA. La empresa decidió cerrarla meses después debido a la "baja tasa de precisión" en sus resultados.
Ver 1 comentarios