Hable con profesionales médicos, no solo con ChatGPT, instan los médicos de Ontario

ChatGPT y herramientas de inteligencia artificial similares a veces pueden responder con precisión las preguntas de los pacientes, pero los investigadores médicos canadienses advierten que la información debe verificarse cuidadosamente antes de actuar en función de lo que se ve.
El consejo de los investigadores llega mientras la Asociación Médica de Ontario (OMA) organizaba una conferencia de prensa esta semana, en la que se debatían fuentes de información caseras (desde motores de búsqueda hasta redes sociales y chatbots) y sus impactos, así como lo que los pacientes pueden hacer en su lugar.
Es importante advertir a la gente ahora, dijo la Dra. Valerie Primeau, psiquiatra de North Bay que dirige programas comunitarios y para pacientes hospitalizados sobre salud mental y adicciones, porque los pacientes recurren cada vez más a las herramientas de inteligencia artificial.
Los chatbots dan resultados convincentes y empáticos , pero la información puede ser falsa .
"Tengo pacientes que acuden a ChatGPT para obtener consejos y conversar", dijo Primeau. "Por lo tanto, preveo que este problema seguirá presente, y si no lo abordamos ahora y ayudamos a las personas a afrontarlo , tendrán dificultades".
El Dr. David D'Souza, oncólogo radioterapeuta en London, Ontario, que dirige la investigación clínica sobre tratamientos para el cáncer basados en imágenes, dijo que dependiendo de cómo los pacientes interrumpan lo que la IA les dice, podrían posponer los tratamientos convencionales.
"Un paciente me preguntó si debía esperar unos años para recibir tratamiento para el cáncer que le diagnosticaron, ya que cree que la IA personalizará los tratamientos oncológicos para cada paciente", declaró D'Souza a la prensa. "Tuve que convencerlo de por qué debía recibir tratamiento ahora".
Dado que los consumidores utilizarán las herramientas, la presidenta de la OMA, Dra. Zainab Abdurrahman, aconsejó que si una publicación dice "los médicos te han estado ocultando esto", consulte los sitios web de grupos especializados relevantes, como las asociaciones provinciales de atención oncológica, para ver si lo respaldan.
Los anuncios falsos , incluidas las imágenes generadas por IA, también pueden desviar a los pacientes, advirtió Abdurrahman, quien también es inmunólogo clínico y alergista.
La pérdida de matices hace que sea más difícil confiar en los resultados de la IASi bien la tecnología avanza, los chatbots actuales responden rutinariamente a consultas de salud con información falsa queparece autorizada .
Enun estudio , el Dr. Benjamin Chin-Yee, profesor adjunto del departamento de patología y medicina de laboratorio de la Western University y sus coautores introdujeron casi 5.000 resúmenes de literatura médica y científica en modelos de lenguaje grande de IA, incluido ChatGPT, y solicitaron resúmenes.
Descubrieron que tres cuartas partes de las versiones de IA pasaban por alto partes clave de declaraciones cuidadosamente guardadas.
Por ejemplo, el artículo de la revista podría decir que un medicamento sólo fue efectivo en un determinado grupo de pacientes, mientras que el resumen omite ese detalle clave, dijo Chin-Yee, quien también es hematólogo.

La preocupación es que, cuando se pierde ese matiz en los detalles, puede resultar engañoso para los profesionales que intentan utilizar ese conocimiento para influir en su práctica clínica.
Chin-Yee dijo que la IA es un área activa de investigación que está cambiando rápidamente, con modelos más nuevos que son más parecidos a los humanos y fáciles de usar, pero puede haber desventajas al confiar solo en las herramientas.
De manera similar, David Chen, estudiante de medicina de la Universidad de Toronto, comparó los resultados proporcionados por los chatbots a 200 preguntas sobre el cáncer de un foro de Reddit con las respuestas proporcionadas por oncólogos.
"Nos sorprendió descubrir que estos chatbots podían alcanzar niveles de competencia casi humanos, según la evaluación de calidad, empatía y legibilidad de nuestro equipo médico", afirmó Chen.
Pero los resultados experimentales pueden no reflejar lo que sucede en el mundo real.
"Sin supervisión médica, es difícil confiar al 100 por ciento en algunos de estos resultados de estas tecnologías generativas", dijo Chen, y agregó que las preocupaciones sobre la privacidad, la seguridad y la confianza del paciente aún no se han explorado por completo.

Las tecnologías de IA generativa, como los chatbots, se basan en técnicas de coincidencia de patrones que ofrecen el resultado más probable a una pregunta dada, según la información con la que fueron entrenados. Sin embargo, en medicina, los diagnósticos improbables también pueden ser importantes y no deben descartarse.
Además, los chatbots pueden alucinar : producir resultados que suenan convincentes pero que son incorrectos, inventados, sin sentido o irrelevantes.
"También se han publicado estudios que sugieren que estos chatbots tienen tasas de alucinaciones de más del 20 por ciento", dijo Chen, lo que podría hacer que los resultados sean clínicamente erróneos.

En la primavera, el cardiólogo Eric Topol, profesor y vicepresidente ejecutivo de Scripps Research en San Diego, California, publicó un libro, Superagers: An Evidence-Based Approach to Longevity , que analizó el impacto de la IA en la longevidad y la calidad de vida.
"Hay muchas anécdotas buenas y malas", dijo Topol sobre los pacientes que usan chatbots. "No se ha evaluado sistemáticamente de forma significativa para su uso público".
Topol aconsejó consultar varios chatbots y verificar la fiabilidad de la información. También sugirió solicitar referencias de la literatura médica, señalando que a veces no son reales y deben verificarse.
Idealmente, Topol afirmó que se realizaría una prueba real de las respuestas de los chatbots de decenas de miles de personas, rastreando las pruebas realizadas, los diagnósticos recibidos y los resultados de quienes usaron IA y quienes no. Sin embargo, es improbable que las empresas tecnológicas participen porque ninguna de ellas se beneficiaría, afirmó.
"Es un mundo diferente ahora y no se puede volver atrás en el tiempo", dijo Topol sobre el uso inteligente de las herramientas.
cbc.ca