Cada vez más personas recurren a chatbots de IA para obtener información sobre síntomas, opciones de tratamiento o para confirmar los diagnósticos de sus médicos, reveló una encuesta realizada por la Kaiser Family Foundation, una organización de investigación de políticas de salud sin fines de lucro
De acuerdo con la investigación, Un 64% de los adultos afirmó que han utilizado o interactuado con la IA. Sin embargo, tan solo un 34% confesó hacerlo al menos varias veces a la semana.
El uso de chatbots para la consulta médica ha ido en aumento debido a la capacidad de estos sistemas para ofrecer explicaciones clínicas más amplias que una búsqueda rápida en Google.
Dave deBronkart, un partidarios de este uso de la IA para estos fines declaró a The New York Times que "Google te da acceso a la información. La IA da acceso al pensamiento clínico".
Además, según un artículo de Medical Economics, a diferencia de los motores de búsqueda de Google, los chatbots están diseñados para reducir errores humanos al manejar grandes volúmenes de información médica. Esto da confianza a los pacientes, quieres consideran que están recibiendo datos basados en fuentes clínicas confiables.
El problema es la confianza excesiva en la IA
Otros expertos consultados por The New York Times aseguraron que si bien el uso de los chatbots de IA para responder preguntas de salud está cada vez más extendido, lo cierto es que esta herramienta aún está lejos de ser tan confiable como la gente cree.
El doctor Ateev Mehrotra es investigador de salud pública y profesor de la Universidad de Brown. Él estudia los usos que los pacientes dan a los chatbots de IA, y él cree que la encuesta de la KFF muestra una tasa de utilización sorprendentemente alta, que contrasta con la creencia de otros colegas, quienes ven el uso de esta herramienta como algo todavía lejano.
Por su parte, Benjamin Tolchin, bioeticista y neurólogo de la Universidad de Yale, dijo al medio estadounidense que, en su mayor parte, esta herramienta ha ayudado a los pacientes a informarse sobre una condición determinada y las opciones de tratamiento disponibles. Pero también consideró que los chatbots pueden ofrecer información médica errónea o incompleta.
Mantener un sano escepticismo, la clave
Según la encuesta de KFF, los adultos más jóvenes encuestados mostraron más confianza en su capacidad para distinguir la información falsa de la verdadera, siete de cada diez adultos mayores de de 65 años confesaron no estar seguros de poder encontrar la diferencia en los chatbots de IA.
Además, solo uno de cada tres adultos dice estar “muy seguro” (5%) o “algo seguro” (31%) de que la información y los consejos sanitarios que pueda proporcionar la inteligencia artificial sean precisos.
Dave deBronkart aseguró a The New York Times que existe una forma correcta de utilizar ChatGPT para obtener información de salud: las preguntas deben elaborarse con cuidado y las respuestas deben analizarse con escepticismo. El bloguero consideró que estas son herramientas que pueden ayudar a mejorar el pensamiento. “No queremos que la gente piense que esto brinda respuestas instantáneas para que no tengan que pensar más”, declaró.
Ver 0 comentarios