ChatGPT, es el chatbot con inteligencia artificial de moda. Aquí hemos abordado desde cómo utilizarlo, su posible integración en Bing y en programas de Office, así como su capacidad para escribir artículos, el cómo se "combate" su uso en universidades y hasta el que aprovechó la IA para hacer una novia virtual. Ahora, la siguiente novedad de la IA es su uso en por lo menos cuatro artículos publicados y preprints.
De acuerdo con Nature, luego de contactar a los editores y servidores de preimpresión, estos señalaron que las IAs como ChatGPT no cumplen con los criterios para ser consideradas autoras de un estudio, pues no pueden asumir la responsabilidad por el contenido e integridad de artículos científicos, aunque otros editores dicen que la contribución de una IA en la redacción puede reconocerse en secciones distintos a la lista de autores.
Los artículos de ChatGPT hasta ahora
En el primer caso donde citan a GPT, aparece como uno de los 12 autores de una preimpresión. Esta versa sobre el uso de la herramienta para educación médica, y fue publicado en el repositorio médico medRxiv en diciembre de 2022.
En el segundo documento, un editorial en la revista Nurse Education in Practice pone a ChatGPT como coautora, aunque Roger Watson, editor en jefe de la revista, señala que el crédito se "deslizó por error" y pronto será corregido. Según Watson, este descuido fue porque las editoriales tienen un sistema de gestión distinto al utilizado en los artículos de investigación.
Otro lugar donde también aparece la IA como coautor es en un artículo de perspectiva de la revista Oncoscience, aunque este es un caso especial, pues Alex Zhavoronkov, director ejecutivo de Insilico Medicine, dijo que su empresa de descubrimiento de fármacos impulsada por IA en Hong Kong ha publicado más de 80 artículos producidos por herramientas de IA generativa.
Específicamente de este último hecho por ChatGPT, se trata de un artículo que analiza los pros y contras de tomar la droga rapamicina, utilizando la perspectiva de la apuesta de Pascal. Según Zhavoronkov, los pares de Oncoscience revisaron el documento luego de que pidió a su editor que lo hiciera.
Para el cuarto artículo, publicado en el servidor de preimpresión francés HAL en julio de 2022 y que se publicará pronto en una revista revisada por pares, está coescrito por GPT-3, un chatbot anterior.
En este caso la coautora Almira Osmanovic Thunström, comentó que una revista rechazó el artículo después de la revisión, pero que tras una segunda fue aceptado con GPT-3 como autor, luego de que este fuera reescrito en respuesta a las solicitudes de los revisores.
Cómo manejar un artículo donde una IA colabora
Por lo pronto, los editores en jefe de Nature y Science dijeron que ChatGPT no cumple con el estándar de autoría, pues la atribución conlleva la responsabilidad de trabajo, misma que no se puede aplicar a los modelos de lenguaje (LLM).
Esto significa que si un autor utiliza alguno de estos para desarrollar su artículo, se debe documentar su uso en otras partes del mismo, como en las secciones de métodos o agradecimientos, sugiere Magdalena Skipper, editora en jefe de Nature en Londres.
Por su parte Holden Thorp, editor en jefe de la familia de revistas Science en Washington DC, detalla que no se permitiría que una IA aparezca como un autor de un artículo publicado, pues el uso de un texto generado por los LLM sin contar con las citas adecuadas se puede considerar plagio.
En el caso de la editorial Taylor & Francis, señalan que los autores son los responsables de "la validez e integridad de su trabajo", por lo que deben citar el uso de un LLM en la sección de agradecimientos.
La junta del servidor de preimpresión de ciencias físicas arXiv también ha tenido discusiones sobre el uso de IA generativas, y el director científico Steinn Sigurdsson comparte el punto de Nature en que no pueden ser autoras de una publicación al no poder aceptar los términos de uso y derecho a distribuir el contenido.
Una IA sin responsabilidad de lo que escribe
Por lo pronto, según Matt Hodgkinson, gerente de integridad de investigación en la Oficina de Integridad de Investigación del Reino Unido, hay pautas claras de autoría que significan que ChatGPT no debe ser acreditado como coautor, pues este debe hacer una "contribución académica significativa" al artículo.
Sin embargo, el punto clave es que también deber tener la capacidad de aceptar ser coautor y asumir la responsabilidad de un estudio, lo que para las herramientas con IA representa un obstáculo.
En el caso de Zhavoronkov, detalla que cuando intentó que ChatGPT escribiera artículos más técnicos que la perspectiva original, a menudo arrojaba declaraciones "no necesariamente ciertas", dando distintas respuestas a la misma pregunta, lo que representa un riesgo para la academia si se usa mal, pues más personas sin experiencia podrían intentar escribir sus propios artículos científicos con la IA.