La implementación de inteligencia artificial en el ámbito de la salud avanza a un ritmo acelerado, impulsada por la disponibilidad creciente de datos y la necesidad de mejorar la eficiencia de sistemas sanitarios cada vez más exigidos.
Sin embargo, esta expansión tecnológica convive con un riesgo crítico: que la innovación amplifique desigualdades en lugar de reducirlas.
Este desafío es especialmente relevante para profesionales que trabajan en la intersección entre epidemiología, efectividad clínica y healthcare data science.
Profesionales que observan cómo los modelos algorítmicos pueden mejorar la atención sanitaria, pero también replicar sesgos estructurales presentes en los datos y el sistema de salud.
A partir de esta preocupación surge la necesidad de un análisis crítico, iniciando con una pregunta clave: ¿qué decisiones, prácticas y marcos éticos son indispensables para que la IA sea realmente una herramienta de equidad y no un amplificador de injusticias?

Un interrogante ético en el centro de la innovación en salud
Para una epidemióloga, efectivista clínica y especialista en healthcare data science, como Sandra Escobar Espinosa, Healthcare Lead de Conexia, la pregunta relativa a si la inteligencia artificial puede mejorar la atención en salud sin agravar las inequidades existentes, no es una pregunta retórica ni teórica: es la brújula que orienta su trabajo.
En efecto, la inteligencia artificial se convirtió en una herramienta cada vez más presente en:
- Diagnósticos.
- Decisiones clínicas.
- Gestión hospitalaria.
- Monitoreo de pacientes.
No obstante, la promesa de eficiencia y precisión de la IA convive con un riesgo claro, que anticipamos en la introducción de este artículo: reproducir o amplificar las inequidades que atraviesan los sistemas de salud.
Si los datos son el insumo fundamental de la inteligencia artificial, la desigualdad es el ruido que puede distorsionarla.
Algunos ejemplos reales aportados por Escobar Espinosa permiten graficar la problemática:
- Modelos de diagnóstico en dermatología que no detectan melanoma en pieles oscuras porque fueron entrenados solo con imágenes de piel clara.
- Algoritmos de triaje que subestiman la gravedad en mujeres o adultos mayores por sesgos históricos en los datos.
- Chatbots de salud mental que no reconocen el lenguaje o expresiones de comunidades marginadas.
Estos casos evidencian un problema estructural: la IA no crea desigualdad, pero puede escalarla.

La raíz del problema: datos que no representan a todos
El sesgo algorítmico no es un error técnico aislado, sino la consecuencia de inequidades previas:
- Acceso desigual a servicios de salud, que genera historiales clínicos incompletos o sesgados.
- Registros históricos mal estructurados, con errores o vacíos que afectan a ciertos grupos más que a otros.
- Subrepresentación sistemática de poblaciones rurales, minorías étnicas, identidades diversas y personas con bajos recursos.
Cuando estos sesgos entran al modelo, regresan como decisiones automatizadas que afectan diagnósticos, derivaciones y tratamientos.
Un enfoque integral para evitar la amplificación de inequidades
Desde la intersección entre salud pública, práctica clínica y ciencia de datos, la Sandra Escobar Espinosa propone un enfoque proactivo que actúe antes, durante y después del desarrollo de un modelo.
Para ello, identifica cuatro pilares:
1. Asegurar datasets representativos y diversos. No se trata solo de volumen de datos, sino de su composición. Las bases deben incluir variabilidad real de edad, género, etnias, condiciones socioeconómicas y contextos geográficos.
2. Evaluar desempeño en subgrupos vulnerables. Un modelo puede tener un excelente rendimiento general pero fallar sistemáticamente en determinados colectivos. La validación estratificada es imprescindible.
3. Involucrar a profesionales, pacientes y comunidades. La adopción de tecnologías no puede quedar solo en manos de ingenieros o tomadores de decisión: requiere participación amplia y deliberativa.
4. Aplicar principios de Fairness, Explainability y Accountability. La transparencia no es opcional. La IA en salud necesita ser interpretable, responsable y auditable para garantizar que las decisiones automatizadas no se vuelvan opacas ni incontrolables.

La equidad como condición, no como efecto secundario
“La transformación digital en salud no puede avanzar sin una base ética sólida. La equidad no es un efecto colateral deseable: debe ser un objetivo explícito”, advierte Escobar Espinosa.
La clave pasa por trabajar en el punto de encuentro entre ciencia de datos, evaluación clínica y ética aplicada. Y desde allí impulsar una agenda que combine rigor técnico y responsabilidad social.
Quienes estén explorando los mismos desafíos encontrarán en este enfoque una invitación abierta a conectar, compartir aprendizajes y construir tecnologías que realmente mejoren la atención sanitaria.