El uso de la Inteligencia Artífical (IA) en la salud, en temas y cuestiones tan relevantes como la confidencialidad, la dignidad, la autonomía y la propiedad de los datos, entre otros muchos, “se complican con el uso de las nuevas tecnologías diagnósticas y terapéuticas, y con el empleo de la IA”. Así lo asegura Fernando Bandrés, catedrático de Medicina Legal de la UCM y director del Centro de Estudios Gregorio Marañón y coordinador del el XVI Seminario de Biomedicina, Ética y Derechos Humanos, que ha dado comienzo este jueves.
“Las grandes amenazas se ciernen sobre la seguridad y gestión de los datos de salud (lo que, entre otras cosas, obliga a crear un nuevo modelo de historia clínica), el uso de algoritmos, la anonimización, la transparencia en el manejo de la IA, el derecho a la información y los riesgos de discriminación, asegura Bandrés.
Junto a él, otro experto, Benjamín Herreros Ruiz- Valdepeñas, director del Instituto de Ética Clínica Francisco Vallés y director del Máster Universitario en Bioética Clínica de UIMP – FOM es que, asegura que “la inteligencia artificial puede hacer que las decisiones médicas se modifiquen radicalmente, que no se tomen decisiones humanas sino en base a algoritmos y análisis de datos”.
Como señala este experto, “todo esto repercute directamente en el núcleo de la Medicina: la relación médico-paciente, la confianza, la responsabilidad de las decisiones, la libertad y autonomía del paciente,…”. Y es que, según añade, “la revolución más importante que se ha registrado en Medicina desde Hipócrates es la que se está produciendo por la IA”.
Evaluar retos
El Seminario, que esta edición se celebra en la sede de la Fundación Ortega-Marañón, se focaliza particularmente en evaluar los retos que plantea la inteligencia artificial. “Estos nuevos recursos aplicados en Medicina aportan seguridad en los procesos diagnósticos y terapéuticos, pero también podrían consolidar sesgos y errores previos, sobre todo porque desconocemos los algoritmos que están detrás y quién y cómo se validarán, así como se plantea un nuevo reparto de responsabilidades en la asistencia sanitaria”, afirma María Tormo Domínguez, directora de Planificación y Desarrollo de ASISA.
Tormo considera “esencial reflexionar, desde las Ciencias de la Salud en general y otras disciplinas, sobre el alcance de la IA”.
Los expertos en Bioética consideran que los procedimientos guiados por IA y que tienen aplicaciones en salud “deberían seguir un patrón similar a lo que sucede, por ejemplo, con la aprobación de fármacos”. En Medicina se aprueba el uso de medicamentos, de productos sanitarios y de dispositivos técnicos tras un proceso riguroso de comprobación de la seguridad y de la eficacia de los mismos. A juicio de María Tormo, “estos procedimientos deberían trasladarse (con la necesaria adaptación) a la IA”.
“¿qué ocurriría si falla la IA, o es que no fallará nunca?”, se pregunta María Tormo al tiempo que reclama “un concienzudo estudio sobre los límites de la IA en salud. “Todos estos estudios deberán ser multidisciplinares y, de hecho, estamos preparados para realizarlos”, señala María Tormo.
Richard Benjamins, responsable de Inteligencia Artificial en Telefónica, la IA es un aliado para la salud de las personas. “Nos dirigimos a una situación donde los profesionales de la salud se pueden apoyar cada vez más en la inteligencia artificial”, asegura este experto, quien considera que “el profesional seguirá al mando, pero tendrá un potente copiloto para ayudarle con las tareas que normalmente requieren mucho esfuerzo manual y/o mental”. Por lo tanto, opina, “no hay que tener miedo de la inteligencia artificial, sino que debemos entenderla y comprenderla, lo que debe acompañarse también de una aplicación y uso responsable”.
Y es que también se subrayan en este foro los importantes beneficios derivados del uso de la IA. Entre otros, se destaca la reducción de la variabilidad clínica (tanto en el diagnóstico como el tratamiento) o el empleo de datos masivos que, mediante aprendizaje profundo, permiten mejorar la toma de decisiones en términos de eficiencia y calidad.
ChatGPT
En el caso concreto de ChatGPT, Mª Jesús Pascual, jefa de la Unidad de Comunicación Interna de Madrid Salud, explica en este foro qué es, cómo funciona, cómo usarlo y para qué sirve en el campo de la comunicación de salud, subrayando sus ventajas y desventajas en salud pública.
Como principal amenaza, esta experta apunta que “ChatGPT podría ser utilizado para generar textos científicos y/o divulgativos que contengan información falsa sobre temas de salud, lo que podría inducir a los usuarios a tomar decisiones erróneas o perjudiciales para su salud (seguir tratamientos ineficaces, abandonar terapias efectivas consumir sustancias nocivas,…)”. Esto, a su juicio, “generaría una importante pérdida de confianza y credibilidad de los profesionales sanitarios”.
En definitiva, “esta herramienta de inteligencia artificial plantea desafíos éticos y de privacidad que se deben tener en cuenta para garantizar, además de la seguridad de las personas que demandan actividades preventivas o asistenciales, la calidad de estas acciones”.
Para evitar estas amenazas, según aconseja Mª Jesús Pascual, “es importante que los profesionales de la salud sean conscientes de las limitaciones y los desafíos de chatGPT y mantengan su formación actualizada”.
Los expertos coinciden en que no hay un ámbito sanitario en el que no pueda ser aplicado ChatGPT, aunque la investigación científica es donde puede tener más trascendencia. “La capacidad para procesar grandes volúmenes de datos permitirá un análisis en tiempo récord, facilitando la detección temprana de factores de riesgo y el diagnóstico de enfermedades. De esta forma va a permitir tomar decisiones más precisas y personalizadas”, finaliza Mª Jesús Pascual.