La Inteligencia Artificial (IA) está transformando profundamente la industria farmacéutica, desde el descubrimiento de nuevos fármacos hasta la personalización de tratamientos. Esto es una tendencia en el sector de la salud, ya que el 11% de los profesionales sanitarios en España utilizan la IA de forma habitual, mientras que otro 42% tiene intenciones de usarla en poco tiempo, según se desprende del informe Spain Artificial Intelligence (AI) in Healthcare Market Analysis.
Además, este documento refleja que el uso de la IA en el sector sanitario español crecerá de forma notable en los próximos seis años —también a nivel de facturación—, pasando de mover cerca de 130 millones de euros en 2022 a contar con unas previsiones de 2.500 millones para el año 2030.
Como director de tecnología e innovación en Takeda, a diario soy testigo de cómo estas herramientas están revolucionando procesos que hace una década eran impensables. Nuestros equipos de I+D están ya implementando herramientas de Inteligencia Artificial, machine learning (ML) y análisis de big data en diversas etapas de investigación y desarrollo (I+D), desde las primeras fases hasta l la investigación clínica y la optimización de la producción.
Por ejemplo, en las primeras etapas, utilizamos IA y ML para analizar grandes volúmenes de datos y predecir la eficacia de nuevos compuestos. En desarrollo preclínico y clínico, ya aplicamos simulaciones computacionales para anticipar cómo actuarán los medicamentos en el cuerpo humano y empleamos tecnologías para realizar ensayos clínicos de manera más eficiente y accesible, incluso de manera virtual generando hipótesis que permitirán dirigir mejor los esfuerzos posteriores.
Sin embargo, más allá de los avances técnicos, a nivel usuario, existe un debate aún relevante: ¿cómo aseguramos que esta tecnología produzca un impacto relevante y útil?
En la era de la IA, el humanismo es más necesario que nunca. Frente a sistemas capaces de procesar millones de datos en segundos, debemos recordar que esta herramienta no “piensa”, sino que opera bajo algoritmos, patrones y modelos estadísticos, por lo que carece de juicio ético, sentido común o capacidad crítica. Estas son competencias exclusivamente humanas y, en consecuencia, es nuestra responsabilidad cuestionar, orientar y regular su uso. Aunque la IA puede procesar grandes volúmenes de datos y ofrecer recomendaciones, el juicio humano es insustituible. Por ejemplo, en el diagnóstico médico, un algoritmo puede sugerir posibles enfermedades basándose en síntomas, pero es el médico quien debe evaluar la información, considerar el contexto del paciente y tomar la decisión final.
Es fácil dejarse deslumbrar por los avances de la IA y asumir, erróneamente, que sus resultados son irrefutables. Por ejemplo, en un contexto farmacéutico, un algoritmo puede identificar correlaciones entre variables en una base de datos inmensa, pero eso no implica causalidad ni garantiza la validez de las conclusiones. Aquí es donde la intervención humana resulta insustituible: necesitamos la mirada crítica del científico, del médico o del bioinformático que evalúe la información y determine si es fiable, aplicable y ética.
El pensamiento crítico es esencial para trabajar con la IA. Según un estudio de la Universidad de Stanford, los profesionales que cuestionan y analizan críticamente los resultados de la IA son más efectivos en la toma de decisiones. Es importante no aceptar ciegamente las recomendaciones de la IA, sino evaluarlas y contextualizarlas adecuadamente. La IA no tiene límites en sus capacidades teóricas. Puede proponernos hipótesis, optimizar ensayos clínicos o sugerir nuevos biomarcadores. Sin embargo, son las preguntas correctas las que realmente marcan la diferencia. Formular estas preguntas requiere de conocimiento, criterio y, sobre todo, de una actitud escéptica y reflexiva. Si un modelo sugiere un tratamiento, la cuestión no debe ser únicamente “¿funciona?”, sino también “¿por qué?”, “¿para quién?” y “¿con qué implicaciones a largo plazo?”.
En este sentido, sé que la IA no puede sustituir la responsabilidad humana. La tecnología debe ser una herramienta que complemente nuestras capacidades y nunca un sustituto de nuestro juicio. La medicina y la farmacología son ciencias orientadas al ser humano, y perder esta perspectiva sería no solo un error técnico, sino un fracaso ético.
Nos enfrentamos a infinitas posibilidades: desde el desarrollo de medicamentos más eficaces hasta la detección temprana de enfermedades complejas. Pero estas oportunidades solo se materializarán si mantenemos un equilibrio entre el poder de la IA y la racionalidad humana. La clave no está en desconfiar ciegamente de la inteligencia artificial ni en aceptarla acríticamente, sino en usarla de manera inteligente, vigilante y orientada al bien común.
La era de la IA exige de nosotros un compromiso renovado con el humanismo y el espíritu crítico. Nuestra capacidad de cuestionar, interpretar y reflexionar será lo que determine si la inteligencia artificial se convierte en un aliado transformador o en una fuente de incertidumbre y desinformación. Depende de nosotros asegurarnos de que siempre sirva a un propósito humano, ético y social.
Daniel Amir Raduan Munem, Digital, Data & Technology Head Takeda Iberia