Inteligencia Artificial en Salud: Avances, riesgos y desafíos éticos

10/07/2025

Una mirada desde la academia. En los últimos años, el uso de ciencia de datos e inteligencia artificial (IA) en el ámbito de la salud ha experimentado un crecimiento acelerado, impulsado por avances tecnológicos, el aumento de datos disponibles y la necesidad de mejorar la eficiencia en la atención médica. Según la Organización Mundial de la Salud (OMS), se define la IA aplicada a la salud como la aplicación de algoritmos y software - principalmente, mediante aprendizaje automático y big data- para analizar datos médicos complejos con el objetivo de ayudar en el diagnóstico, el tratamiento, la prevención y la gestión del sistema sanitario. Dentro de este contexto ya existen a nivel mundial múltiples ejemplos de aplicaciones en salud como: (i) diagnóstico asistido por IA; (ii) medicina personalizada; (iii) optimización de procesos clínicos; (iv) desarrollo de fármacos; (v) monitoreo remoto y dispositivos electrónicos inteligentes. Sin embargo, el uso de IA debe ser mediado por bases técnicas sólidas y principios éticos. Un mal diseño podría perpetuar sesgos, afectar derechos o reforzar desigualdades. Tanto la OMS como la Unión Europea (UE) han establecido marcos éticos y legales para el uso de la IA en el ámbito de la salud, con el objetivo de garantizar su implementación segura, equitativa y respetuosa de los derechos humanos.

En junio de 2021, la OMS publicó el informe "Ética y gobernanza de la inteligencia artificial en el ámbito de la salud", que establece seis principios rectores para el uso de la IA en salud:

  1. Preservar la autonomía humana: Asegurar que las decisiones médicas sigan siendo responsabilidad humana, manteniendo la privacidad y el consentimiento informado.
  2. Promover el bienestar y la seguridad: Garantizar que los sistemas de IA sean seguros, eficaces y estén sujetos a controles de calidad.
  3. Garantizar la transparencia y la explicabilidad: Proporcionar información clara sobre el funcionamiento de los sistemas de IA para facilitar su comprensión y supervisión.
  4. Promover la responsabilidad y la rendición de cuentas: Establecer mecanismos para que los afectados por decisiones automatizadas puedan obtener reparación.
  5. Garantizar la inclusividad y la equidad: Diseñar sistemas de IA que sean accesibles y justos para todas las personas, independientemente de su origen o condición.
  6. Promover una IA sostenible y con capacidad de respuesta: Evaluar y ajustar continuamente los sistemas de IA para asegurar que respondan adecuadamente a las necesidades de salud pública y minimicen su impacto ambiental.

En agosto de 2024 entró en vigor un marco regulador para la IA de la Unión Europea (UE), conocido como el Reglamento (UE) 2024/1689. Este reglamento establece elementos de interés como un método de clasificación de riesgos, obligaciones de proveedores y usuarios y prohibiciones específicas que regulan el tema de la seguridad y derechos fundamentales de las personas:

  1. Clasificación de riesgos: Los sistemas de IA se clasifican en cuatro niveles de riesgo (mínimo, bajo, alto e inaceptable), imponiendo requisitos más estrictos a medida que aumenta el riesgo asociado.
  2. Obligaciones para proveedores y usuarios: Se requiere que informen sobre las capacidades y riesgos de los sistemas de IA, implementen medidas de ciberseguridad y faciliten la supervisión humana.
  3. Prohibiciones específicas: Se prohíben ciertos usos de la IA que violen derechos fundamentales, como la manipulación subliminal o la puntuación social.

Además, la UE ha desarrollado un Código de Buenas Prácticas para la IA de Propósito General que, aunque voluntario, busca promover la confianza mediante prácticas éticas y transparentes. Tanto la OMS como la UE han establecido consideraciones éticas y legales sobre el uso de IA en salud que incluyen: (i) Protección de datos: ambas entidades destacan la importancia de la privacidad y la protección de datos personales, especialmente en salud; (ii) Transparencia y explicabilidad: se enfatiza que los sistemas de IA deben ser comprensibles y auditables por usuarios y reguladores; (iii) Equidad y no discriminación: se busca evitar sesgos que generen trato desigual o injusto.

Desde 2021, Chile cuenta con una Política Nacional de IA, estructurada en tres ejes: Factores habilitantes (infraestructura, datos y talento); Desarrollo y adopción (industria e investigación); y, Gobernanza y ética (normativa y valores fundamentales). En 2024, el Ministerio de Ciencia, Tecnología, Conocimiento e Innovación presentó una actualización del eje de Gobernanza y Ética, incorporando más de 100 acciones concretas para 2024 - 2026, con el objetivo de fortalecer la regulación ante los avances de la IA generativa.

Quiero recibir
información

Utilizamos cookies en nuestro sitio web para mejorar la experiencia del usuario a través de su navegación. Más información