Desde la mirada de una especialista en Salud Digital

14/07/2025

Andrea Barbiero, Especialista en salud digital en temas healthtech, tecnologías emergentes (IA, blockchain, big data) y en innovación social, investigadora Senior, Conferencista internacional, Profesora en varias cátedras de salud digital y Fundadora de Co-Salud, España.

Muchos países de América Latina están comenzando a incorporar IA en distintos niveles del sistema sanitario. Desde una mirada bioética, ¿qué condiciones mínimas deberían estar presentes para que su implementación no profundice brechas existentes ni comprometa derechos fundamentales?
R: Para que la IA se convierta en una herramienta positiva en los sistemas de salud de LATAM, necesitamos asegurarnos de que su implementación sea inclusiva. Con esto me refiero a que todos debemos tener voz en cómo se desarrolla y aplica la tecnología. Es fundamental establecer mecanismos de participación donde se escuchen las opiniones de las comunidades, especialmente las más vulnerables. También debemos velar por el respeto de los derechos humanos, garantizando que la IA no se use para discriminar o para profundizar las desigualdades existentes.

Sabemos que los algoritmos aprenden a partir de los datos que se les entregan, y que esos datos muchas veces reflejan desigualdades estructurales. ¿Qué estrategias pueden adoptarse desde las políticas públicas para reducir el riesgo de que la IA consolide o amplifique esas inequidades en salud?
R: Desde las políticas públicas, hay que desplegar estrategias que permitan evitar que la IA amplifique las desigualdades en salud existentes. Primero y principal, en LATAM tenemos el reto de mejorar la calidad de los datos que se están utilizando, asegurando que representen de verdad a todas las comunidades. Las auditorías pueden ayudar en este punto. Además, deberíamos promover la colaboración con las comunidades para que puedan aportar su perspectiva y experiencias en el desarrollo de la IA, así contribuimos a que esta tecnología refleje la diversidad de nuestra sociedad.

¿Cómo debiera repensarse la noción de responsabilidad cuando las decisiones clínicas o administrativas están mediadas por sistemas de IA? ¿Es posible mantener una cadena clara de rendición de cuentas en entornos altamente automatizados?
R: Pensar en la responsabilidad en un mundo donde la IA toma decisiones puede ser complicado, pero no imposible. Es importante que mantengamos las tecnologías como un soporte de las decisiones clínicas, nunca como un tomador de decisiones por sí mismo. Es necesario que creemos comités que nos permitan una cadena de rendición de cuentas clara. Esto significa que necesitamos equipos diversos que incluyan voces de diferentes sectores: profesionales, pacientes, y representantes comunitarios. Así, no solo se toman decisiones desde el enfoque técnico, sino también con un sentido ético que realmente tenga en cuenta a las personas involucradas.

La evaluación de tecnologías sanitarias tradicionalmente se ha centrado en criterios de eficacia, seguridad y costo-efectividad. ¿Qué dimensiones éticas deberían incorporarse al evaluar herramientas de IA en salud, especialmente en contextos de escasez de información y alta heterogeneidad regional?
R: Al evaluar las herramientas de IA, debemos ir más allá de medir solo su eficacia y costos. Es importante que también consideremos cómo estas tecnologías pueden afectar a las comunidades en términos de justicia social y equidad. Preguntarnos si todos tienen acceso a estas innovaciones y si se están respetando sus derechos es crucial. En contextos donde la información escasea y las realidades son muy diversas, es esencial que la ética forme parte del centro de nuestras evaluaciones.

Finalmente, ¿Estamos, como sociedad, generando las condiciones necesarias para que la inteligencia artificial avance en salud con transparencia, equidad y control humano real?
R: No estamos preparados, pero debemos estarlo. "Es ahora el momento de diseñar el futuro que queremos y no dejar que otros decidan por nosotros". Para que la IA avance de manera transparente y justa, debemos tener un diálogo abierto y honesto sobre cómo se usan los datos y qué beneficios trae esta tecnología en cada contexto y para cada colectivo. Es fundamental que todos tengamos un espacio para expresar nuestras preocupaciones y expectativas sobre el uso de nuestros datos. La verdadera gobernanza ciudadana significa que podamos mantener el control sobre cómo se aplica la IA en salud, para asegurarnos de que siempre esté al servicio del bienestar de las personas y no solo de intereses comerciales.

Quiero recibir
información

Utilizamos cookies en nuestro sitio web para mejorar la experiencia del usuario a través de su navegación. Más información