Cada vez es más fácil encontrar aplicaciones prácticas para la Inteligencia Artificial, y con el auge de los chatbots como ChatGPT, ver que estos se utilizan en entornos donde se requiere el uso de lenguaje natural y fluido para interactuar con personas.
Ahora, un nuevo estudio publicado en la revista JAMA Internal Medicine, detalla cómo el chatbot de OpenAI fue utilizado como asistente para proporcionar respuestas a preguntas de pacientes, siendo preferida en lugar de los médicos el 79% de las veces.
Además de dar respuestas más largas que sus contrapartes humanas, ChatGPT también tuvo respuestas calificadas cómo de "buena o muy buena calidad", mismas que se consideraron "más empáticas" que en caso de las hechas por los médicos.
Las ventajas de usar ChatGPT en entornos médicos
El estudio estuvo dirigido por John W. Ayers , Ph.D., del Instituto Qualcomm de la Universidad de California en San Diego, que analiza el papel que pueden tener los asistentes de IA en la medicina, pudiendo mejorar la atención médica en gran medida, según Ayers.
El estudio se centró en responder la pregunta "¿Puede ChatGPT responder con precisión preguntas que los pacientes envían a sus médicos?".
Si la respuesta era afirmativa, dice Ayers, los modelos de IA se pueden integrar en los sistemas de salud para mejorar así las respuestas que los médicos envían a las preguntas de sus pacientes, y al mismo tiempo, aliviar la carga de trabajo de los doctores.
Según Davey Smith, coautor del estudio, "ChatGPT podría aprobar un examen de licencia médica" y añade que "responder directamente a las preguntas de los pacientes con precisión y empatía es un juego de pelota diferente."
Por su parte Eric Leas, quien también es coautor del estudio, apunta a que durante la pandemia de COVID-19 se aceleró la atención médica virtual, lo que facilitó el acceso a la atención para los pacientes. Sin embargo, los médicos se vieran agobiados por la gran cantidad de mensajes de pacientes en busca de asesoramiento. Esto contribuyó, dice Leas, a que se terminaran registrando niveles récord de agotamiento médico.
Así fue ChatGPT contra los médicos
Para poder realizar la investigación, el equipo decidió utilizar una plataforma donde millones de paciente publican sus consultas médicas que son respondidas por doctores: AskDocs, una sección completa de Reddit con más de 400 mil miembros hacen sus preguntas y profesionales de salud verificados contestan.
En este subreddit los moderadores verifican las credenciales de cada médico y las muestran en cada respuesta, convirtiéndose en un espacio donde se maneja contenido veraz de la mano de doctores autorizados.
De este subreddit, el equipo tomó aleatoriamente 195 intercambios donde un médico verificado respondió a una pregunta pública. Después, se le proporcionó la pregunta original a ChatGPT, y se le pidió escribir una respuesta.
Un panel de tres profesionales de la salud con licencia evaluó tanto las preguntas y respuestas correspondientes, desconociendo el origen de la respuesta, si era de médico o de ChatGPT, comparándolas con parámetros de calidad de información, empatía y cuál era la que preferían de las dos.
El resultado fue que estos evaluadores prefirieron un 79% de las veces las respuestas de ChatGPT en contra de las de los médicos, ya que el chatbot respondía con información matizada y precisa que en muchas ocasiones abordaba más aspectos de las preguntas del paciente que las respuestas del médico.
Las respuestas de la IA también tuvieron calificaciones "significativamente más altas" en calidad que las respuestas de los médicos: "buena o muy buena calidad" fueron 3.6 veces más altas para ChatGPT que para los médicos (22.1% para doctores y 78.5% para el chatbot). También las respuestas fueron más empáticas, 9.8 veces más altas para ChatGPT que para los médicos.
Los "peros" del estudio
Los investigadores que participaron en el estudio detallan que aunque se pudo enfrentar a ChatGPT con los médicos, no representa una solución definitiva para descartar por completo a los doctores, sino que estos pueden aprovechar al chatbot para tener una atención mejor y empática.
Con estos resultados, dice Christopher Longhurst, director médico y director digital de UC San Diego Health, se pueden redactar de forma eficiente con ChatGPT consejos médicos personalizados de alta calidad para que los revisen los doctores, un proceso que ya se está implementando en el UCSD Health.
Sin embargo, los investigadores también consideran algunos problemas en su estudio.
Por un lado, el uso del foro en línea puede no representar las preguntas típicas entre los médicos y pacientes, pues la interacción con los médicos es mucho más amplia.
De forma adicional, dice el estudio, es que las preguntas clínicas son solo una de las razones por las que los pacientes envían mensajes a sus médicos, pudiendo hacer consultas también sobre citas, recargas de medicamentos, resultados de pruebas específicas, planes de tratamiento y hasta pronóstico
Además, aceptan los investigadores, que los evaluadores pudieron calificar mejor las respuestas del chatbot porque las respuestas más largas de ChatGPT se asociaron (de forma errónea) a una mayor empatía, y se tomó eso en consideración más que la precisión o información fabricada.
Por lo pronto el estudio concluye que aunque los resultados son "prometedores" en el uso de asistentes con IA para responder las preguntas de los pacientes, se requiere más investigación antes de sacar conclusiones definitivas sobre su efecto potencial en entornos clínicos.
Ver 1 comentarios