Gestión

La IA, por el momento, no mejora el diagnóstico, pero puede ser un buen complemento

Un trabajo publicado en Jama Network asegura que herramientas como Chat GPT “siguen necesitando la intervención de un profesional humano”, aunque demuestran “una capacidad impresionante” para leer historiales de paciente

Cómo se pueden utilizar herramientas de alta tecnología y con el empleo de Inteligencia Artificial en la mejora de los diagnósticos; esta ha sido la pregunta a la que han tratado de resolver un grupo de investigadores de la Facultad de Medicina de la Universidad de Virginia, en un reciente estudio que acaba de ser publicado por Jama Network Open.  La respuesta ha sido bastante clara; herramientas como Chat GPT y otros, “no mejoran significativamente la precisión en los diagnósticos, aunque tienen una “capacidad impresionante” para ‘leer’ los historiales clínicos y “complementar los resultados”.

El trabajo se realizó los medio centenar de médicos, todos estadounidenses, de las especialidades de Interna, Familia y Urgencias. La mitad de ellos pusieron a prueba Chat GPT Plus, y la otra mitad trabajó con métodos más convencionales (búsquedas a través de Internet). Los resultados arrojan que la precisión en los diagnósticos es similar.

Los médicos participantes hicieron diagnósticos para "viñetas clínicas" basadas en casos de atención de pacientes de la vida real. Estos estudios de casos incluyeron detalles sobre las historias clínicas de los pacientes, exámenes físicos y resultados de pruebas de laboratorio. Luego, los investigadores calificaron los resultados y examinaron la rapidez con la que los dos grupos hicieron sus diagnósticos.

La precisión diagnóstica media para los médicos que usaron Chat GPT Plus fue del 76,3%, mientras que los resultados para los médicos que usaron enfoques convencionales fueron del 73,7%. Los miembros del grupo Chat GPT llegaron a sus diagnósticos un poco más rápido en general: 519 segundos en comparación con 565 segundos.

Los investigadores se sorprendieron de lo bien que funcionó Chat GPT Plus solo, con una precisión diagnóstica media de más del 92%. Los investigadores dicen que esto puede reflejar las indicaciones utilizadas en el estudio, lo que sugiere que los médicos probablemente se beneficiarán de la capacitación sobre cómo usar las indicaciones de manera efectiva. Alternativamente, dicen, las organizaciones de atención médica podrían comprar indicaciones predefinidas para implementar en el flujo de trabajo clínico y la documentación.

Los investigadores también advierten que Chat GPT Plus “probablemente no funcionaría tan bien en la vida real, donde entran en juego muchos otros aspectos del razonamiento clínico, especialmente para determinar los efectos posteriores de los diagnósticos y las decisiones de tratamiento”. Instan a que se realicen estudios adicionales para evaluar las capacidades de los modelos de lenguaje grandes en esas áreas y están realizando un estudio similar sobre la toma de decisiones de gestión.

"A medida que la IA se integra más en la atención médica, es esencial comprender cómo podemos aprovechar estas herramientas para mejorar la atención al paciente y la experiencia del médico", dijo Parsons. "Este estudio sugiere que hay mucho trabajo por hacer en términos de optimizar nuestra asociación con la IA en el entorno clínico".

Archivado en

Ver más

Ver menos

Comentarios

guest
0 Comments
Inline Feedbacks
View all comments

Noticias relacionadas

Actividades destacadas