Con el objetivo de concienciar de la necesidad de que el desarrollo de la IA “siga unos estándares éticos en cuanto a privacidad de los datos y veracidad de las fuentes de información, entre otros”, las tres sociedades científicas médicas de Atención Primaria (Semergen, semFYC y Semg), la sociedad española de radiología (Seram) y la Federación de Asociación de Enfermería Comunitaria y Atención Primaria (Faecap) se han unido a la Asociación de Innovadores en eSalud (AIES) y al Instituto #SaludsinBulos para promover un código ético sobre la Inteligencia Artificial (IA) en Salud.
Este código, al que se prevé que den apoyo el resto de las más de 70 organizaciones asociadas a AIES y #SaludsinBulos, pretende “sentar las bases de las soluciones digitales de salud que se desarrollen con IA”. Algunas de estas soluciones serán expuestas en el Hackathon Salud, un proceso de cocreación de proyectos digitales para mejorar la asistencia sanitaria que culmina el 13 de diciembre en el Hospital Ramón y Cajal (Madrid), organizado por la plataforma de innovación Itemas (dependiente del Instituto de Salud Carlos III), AIES y la agencia COM Salud.
La IA es el principal motor de transformación de la asistencia sanitaria y la investigación médica, en un grado muy superior y a mayor velocidad que la suma de todos los avances científicos hasta la fecha, según revela el informe elaborado por AIES y #SaludsinBulos, pero también presenta peligros relacionados con la desinformación. “Los mejores deep fakes, fotos, vídeos y audios creados por Inteligencia Artificial que pretenden hacerse pasar por reales, son ya indetectables. No existe ninguna tecnología eficaz que pueda distinguirlos de los reales”, alerta Carlos Mateos, vicepresidente de AIES, coordinador del Instituto #SaludsinBulos y del Hackathon Salud.
Por ese motivo, uno de los objetivos del Hackathon Salud es impulsar soluciones basadas en la IA que ayuden a combatir la desinformación en salud, como análisis de la conversación en redes sociales y bots que recomienden fuentes fiables. En esta edición de 2023 hay varios retos relacionados con la información veraz en salud y la lucha contra los bulos en medicamentos.
El Informe de Tendencias de IA en Salud, realizado por José Miguel Cacho, Cristina Baus y Carlos Mateos, enumera proyectos e iniciativas preferentemente locales que permiten entender mejor la situación de la inteligencia artificial para el sector salud en prevención, diagnóstico, medicina personalizada y desinformación en salud.
“Los cambios que conlleva la adopción de la IA obligan a que los profesionales sanitarios se formen para adaptarse a ella, ya que en pocos años se considerará negligencia no haber consultado la IA para el diagnóstico o tratamiento”, explica la doctora Carmen Jódar, presidenta de AIES. Por ese motivo, desde AIES, se ha puesto en marcha un programa de formación gratuito en IA en salud para las sociedades científicas y colegios profesionales.
Bases del consenso
Consenso ético sobre IA en salud plantes en primer lugar que los sistemas de inteligencia artificial deben preservar la autonomía de las personas. En salud deben incorporar mecanismos para que los profesionales puedan supervisar e intervenir para evitar ser dirigidos injustificadamente, y que puedan revisar y corregir cualquier resultado de dichos sistemas. Los profesionales, los pacientes y los ciudadanos son los responsables de las decisiones sanitarias.
De la misma manera, el uso de la inteligencia artificial debe promover el bienestar de las personas, y su finalidad debe estar orientada al interés público mediante el desarrollo de sistemas seguros, precisos, eficaces y de calidad.
Por otro lado, para que un sistema de IA inspire confianza en los profesionales sanitarios y ciudadanos debe ser legal; asegurando el cumplimiento de las normativas en vigor, justo; evitando sesgos y creencias injustificadas; y robusto técnicamente.
Además, el uso y acceso a los sistemas de inteligencia artificial debe ser equitativo en la medida de lo posible, extendiéndose a todas las personas y regiones sin discriminación por cualquier tipo de condición. Los sistemas de salud deben anticipar la repercusión que tendrá en los profesionales y pacientes utilizar la IA, habituándoles en su uso.
La IA debe ayudar a la alfabetización en salud y a la identificación y difusión de la información veraz en salud. Para ello deben ayudar a identificar las fuentes de la información y las referencias, tanto de texto como de imagen, y contrarrestar la desinformación con información veraz.
Los sistemas de IA y sus entornos tecnológicos deben poseer mecanismos robustos que garanticen la privacidad y seguridad de los datos, de forma que sean tratados responsablemente en la asistencia sanitaria y en la investigación científica.
Las soluciones de IA deben ser entrenadas y utilizar datos fiables y representativos de su universo. Y así cumplir con los principios de justicia, igualdad, diversidad e inclusión con los que mitigar los riesgos para los derechos fundamentales y la seguridad que plantea la IA, y que no están cubiertos por otros marcos jurídicos existentes.
Además, deben existir mecanismos, acogidos a la legislación, que aseguren la responsabilidad en el desarrollo y uso de los sistemas de IA. Es necesaria una rendición de cuentas que reconozca la responsabilidad ante aquellas personas que se sientan perjudicadas por decisiones basadas en estos sistemas, que puedan cuestionarlas y obtener una reparación.
Los sistemas de IA deben ser evaluados de forma continua y transparente en situaciones reales para saber si cumplen de forma adecuada sus expectativas y las necesidades para las que fueron creados. Los sistemas deben reducir al mínimo sus efectos medioambientales y ser eficientes energéticamente.
Y finalmente, la transparencia es la cualidad que hace posible que los sistemas de IA puedan ser comprensibles. Estos deben proveer de información suficiente para conocer sus capacidades y sus limitaciones, permitir realizar una trazabilidad de sus acciones y ser explicables.