Una mirada desde la academia. En los últimos años, el uso de ciencia de datos e inteligencia artificial (IA) en el ámbito de la salud ha experimentado un crecimiento acelerado, impulsado por avances tecnológicos, el aumento de datos disponibles y la necesidad de mejorar la eficiencia en la atención médica. Según la Organización Mundial de la Salud (OMS), se define la IA aplicada a la salud como la aplicación de algoritmos y software - principalmente, mediante aprendizaje automático y big data- para analizar datos médicos complejos con el objetivo de ayudar en el diagnóstico, el tratamiento, la prevención y la gestión del sistema sanitario. Dentro de este contexto ya existen a nivel mundial múltiples ejemplos de aplicaciones en salud como: (i) diagnóstico asistido por IA; (ii) medicina personalizada; (iii) optimización de procesos clínicos; (iv) desarrollo de fármacos; (v) monitoreo remoto y dispositivos electrónicos inteligentes. Sin embargo, el uso de IA debe ser mediado por bases técnicas sólidas y principios éticos. Un mal diseño podría perpetuar sesgos, afectar derechos o reforzar desigualdades. Tanto la OMS como la Unión Europea (UE) han establecido marcos éticos y legales para el uso de la IA en el ámbito de la salud, con el objetivo de garantizar su implementación segura, equitativa y respetuosa de los derechos humanos.
En junio de 2021, la OMS publicó el informe "Ética y gobernanza de la inteligencia artificial en el ámbito de la salud", que establece seis principios rectores para el uso de la IA en salud:
En agosto de 2024 entró en vigor un marco regulador para la IA de la Unión Europea (UE), conocido como el Reglamento (UE) 2024/1689. Este reglamento establece elementos de interés como un método de clasificación de riesgos, obligaciones de proveedores y usuarios y prohibiciones específicas que regulan el tema de la seguridad y derechos fundamentales de las personas:
Además, la UE ha desarrollado un Código de Buenas Prácticas para la IA de Propósito General que, aunque voluntario, busca promover la confianza mediante prácticas éticas y transparentes. Tanto la OMS como la UE han establecido consideraciones éticas y legales sobre el uso de IA en salud que incluyen: (i) Protección de datos: ambas entidades destacan la importancia de la privacidad y la protección de datos personales, especialmente en salud; (ii) Transparencia y explicabilidad: se enfatiza que los sistemas de IA deben ser comprensibles y auditables por usuarios y reguladores; (iii) Equidad y no discriminación: se busca evitar sesgos que generen trato desigual o injusto.
Desde 2021, Chile cuenta con una Política Nacional de IA, estructurada en tres ejes: Factores habilitantes (infraestructura, datos y talento); Desarrollo y adopción (industria e investigación); y, Gobernanza y ética (normativa y valores fundamentales). En 2024, el Ministerio de Ciencia, Tecnología, Conocimiento e Innovación presentó una actualización del eje de Gobernanza y Ética, incorporando más de 100 acciones concretas para 2024 - 2026, con el objetivo de fortalecer la regulación ante los avances de la IA generativa.