Profesión

Expertos advierten de los problemas éticos en la utilización de la inteligencia artificial en FH

La inteligencia artificial en la farmacia hospitalaria plantea grandes oportunidades, pero también desafíos éticos. Expertos destacan la necesidad de reflexión ética, creatividad y formación para su correcta implementación.

La inteligencia artificial (IA) es una oportunidad para la farmacia hospitalaria que, no obstante, no se encuentra exenta de desafíos éticos. El cómo afrontar estos aspectos ha sido el núcleo central de la mesa celebrada durante el primer día de celebración del 69º Congreso de Farmacia Hospitalaria, que se está celebrando en estos días en La Coruña. La mesa, moderada por José Manuel Martínez Sesmero, subdirector médico del Hospital Universitario Lozano Blesa de Zaragoza, ha contado con la participación de Agustín Domingo Moratalla, catedrático de Filosofía Moral y Política de la Universidad de Valencia, Emilio Monte, jefe de Sección del Servicio de Farmacia en el Hospital Universitario y Politécnico La Fe de Valencia, y Enrique Soler, farmacéutico hospitalario miembro del Grupo de Trabajo ETHOS de la Sociedad Española de Farmacia Hospitalaria (SEFH).

Agustín Domingo ha detallado las claves para una bioética mediterránea, aportando diversos puntos claves que deben ser tenidos en cuenta. En primer lugar, destacó que la bioética del cuidado y su relación con la IA es un nuevo modo de sentir y entender las prácticas profesionales desde una perspectiva distinta. Para este experto, “estamos ante una oportunidad de carácter histórico y supone asumir la responsabilidad de la época en que nos ha tocado vivir”. Según él, la bioética del cuidado no da la espalda a las tecnologías ni a la revolución tecnológica; al contrario, es un ejercicio de creatividad. Es una oportunidad moral que no podemos desaprovechar, por lo que es necesario hacer una lectura responsable de la IA.

No obstante, dijo que estamos ante un momento de “ensimismamiento”, ya que la IA está alterando todos los problemas en los que estamos trabajando. Estamos en una época de sobresaturación de IA, y para él ha llegado “el momento de la responsabilidad”. Domingo destacó que la IA no es una simple herramienta, sino parte de nosotros mismos, ya que somos artificiales por naturaleza. Aseveró que es radicalmente necesario contar con la IA. En este sentido, señaló que la IA cada vez es “un recurso más abundante, mientras que la inteligencia natural es un recurso más escaso”. Expuso que el reto ético que plantea la IA es que, si no tenemos cuidado, podríamos caer en una “razón perezosa”, confiando en las máquinas para realizar procesos de aprendizaje tecnológico que, en realidad, están vinculados a la creatividad. Por ello, considera fundamental reflexionar sobre el papel que “le queda” a la inteligencia natural.

Para este experto, la brecha existente no solo es digital, sino moral. Dijo que existe una diferencia significativa entre la pasión con la que invertimos en la IA y la pereza con la que nos enfrentamos a las situaciones morales. “No todo lo que se puede hacer es moralmente plausible”, afirmó. También alertó sobre una cuestión clave que se suele olvidar al trabajar con IA: la dimensión personal y moral, donde se afecta la culpabilidad y la responsabilidad en la toma de decisiones.

Retos para el profesional de la Farmacia Hospitalaria

Por otro lado, Domingo abordó los retos para los profesionales de la farmacia hospitalaria, destacando la importancia de los datos. Es esencial contar con profesionales capaces de interpretar un número cada vez mayor de datos, sin perder de vista que es fundamental entender qué tipo de organización estamos llevando a cabo en nuestro trabajo. En este sentido, la formación ética es esencial, ya que la IA es una herramienta que nos podrá ayudar a decidir procesos y seleccionar determinados tipos de pacientes. Sin embargo, insistió en que la IA no puede obstaculizar nuestra creatividad. Es necesario “parar y pensar hacia dónde nos lleva esta predicción en la dispensación”. Para Domingo, una herramienta clave es la interpretación: necesitamos ser intérpretes y gestionarla bien, pues lo que necesitamos, fundamentalmente, es discernimiento.

Este experto considera que es necesario argumentar el principio de explicabilidad, propio de la ética de la IA. Subrayó que es crucial desarrollar condiciones y equipos de trabajo basados en la responsabilidad comunitaria, para garantizar que las decisiones que tomemos sean transparentes y justificadas.

Herramientas basadas en la IA para la FH

Por su parte, Emilio Monte planteó que la IA ha llegado para quedarse y lanzó tres preguntas clave: el por qué, el para qué y el cómo debe utilizarse. Monte se mostró convencido de que la IA puede hacer de los farmacéuticos mejores profesionales. Afirmó que “el hombre más la máquina bien utilizada es mejor que el hombre solo”. Destacó que la IA tiene un impacto infinitamente mayor y que avanza a una velocidad increíble. Por ello, distinguió entre IA predictiva e IA generativa. Esta última, aseguró, ya se utiliza para crear contenido, lo que requiere una reflexión ética específica.

En cuanto al “¿para qué?”, Monte quiso dejar claro que en la farmacia hospitalaria ya existen experiencias reales de modelos predictivos de validación automática de tratamientos. Esto permite que los profesionales dispongan de más tiempo para otras actividades. Además, la IA facilita la personalización de la atención al paciente, la gestión de inventarios, la seguridad del paciente, la educación continua, la evaluación, la investigación y la productividad.

Monte también expuso ejemplos prácticos de la utilización de la IA, como el desarrollo de un modelo donde se debe definir claramente el problema, recoger y preparar los datos, entrenar el algoritmo y evaluar el modelo con nuevos datos. Señaló la importancia de la evaluación crítica del modelo, mencionando el riesgo de exceso de confianza y la pérdida de validez con el tiempo.

Por otro lado, expuso diferentes ejemplos que se han realizado como “tu onco farma”, “farmamatch” y “pasapalabra: trasplante cardiaco”. Ejemplos que ponen en evidencia que la IA nos hace más productivos. concluyó.

Desafíos éticos

Finalmente, Enrique Soler abordó los desafíos éticos que plantean las herramientas basadas en IA. Señaló que el problema radica en que la IA puede llegar a ser más creativa que nosotros. “La frontera entre la creación humana y la IA “se está reduciendo a pasos agigantados, y la IA se va a constituir en herramientas imprescindibles”. Para él, “el peligro está ahí”, y se trata solo de “una tecnología más que nos pueda ayudar, ya que va mucho más allá”. Soler en sintonía con las intervenciones de sus compañeros de mesa, señaló que la tecnología está cambiando diariamente. Todo ello podrá generar problemas éticos en relación a la transparencia y la explicabilidad.

Por ello, destacó que es fundamental “reflexionar sobre las implicaciones éticas y morales” que conlleva este vertiginoso avance que trasciende de lo meramente tecnológico y que amenaza en”, advirtió. Además, recalcó que la IA podría convertirse en una herramienta indispensable, pero también en un peligroso sustituto de la humanidad tal como la conocemos.

Este experto también abordó las preocupaciones existentes a nivel social, tales como el desarrollo de valores y normas sociales, los beneficios económicos, el acceso equitativo, el impacto en el empleo y por ende en la salud mental, el impacto en la economía, actividad creativas y en desarrollo de habilidades críticas.

Por otro lado, también ahondó en la “explicabilidad”, que según explicó, es la capacidad de un sistema de IA para proporcionar razones comprensibles sobre cómo llegó a una determinada decisión y el por qué tomó esa decisión. Según expuso, es crucialSoler profundizó en la transparencia y la explicabilidad, aspectos fundamentales para que los usuarios comprendan cómo funcionan los sistemas de IA. Afirmó que una explicación clara facilita la identificación de errores y la mejora continua. Asimismo, destacó la privacidad y seguridad de los datos, rendición de cuentas, así como la responsabilidad en caso de errores.

En conclusión, Soler afirmó que los sistemas de IA deben apoyar las decisiones humanas, pero no reemplazarlas. “La última palabra debe estar en manos de operadores humanos con la capacitación y el juicio necesarios”, aseveró. “Nos enfrentamos al desafío de comprender el impacto de la IA en nuestra sociedad y dirigir su evolución hacia un futuro más ético, inclusivo y sostenible”, concluyó. Por ello, es necesario que la IA refleje los valores y aspiraciones más nobles de la humanidad, diseñando un marco ético que guíe su desarrollo y utilización.

Comentarios

guest
0 Comments
Inline Feedbacks
View all comments

Noticias relacionadas

Actividades destacadas

Síguenos en