La inteligencia artificial avanza a gran velocidad en el ámbito de la salud, impulsando mejoras en los diagnósticos, la gestión clínica, la eficiencia operativa y la toma de decisiones. Sin embargo, ese crecimiento también plantea desafíos regulatorios, éticos y de gobernanza que los países comienzan a abordar de manera cada vez más estructurada.
En este escenario, Colombia da un paso relevante al debatir un marco normativo específico para la IA.
Un reciente posteo de Sandra Escobar Espinosa, Healthcare Lead de Conexia, plantea un interrogante clave para el sector asegurador de Colombia: ¿Están listas las empresas de la industria healthtech, junto a las financiadoras de la salud y el riesgo laboral para la regulación de la IA?
La pregunta no es menor. La adopción de IA en salud suele avanzar más rápido que los marcos regulatorios, generando brechas entre la innovación tecnológica y la capacidad de control, supervisión y protección de derechos de los usuarios.
Como explica nuestra experta, el Proyecto de Ley 043 de 2025, actualmente en discusión en el Congreso, busca establecer el primer marco normativo integral sobre inteligencia artificial en Colombia.
Se trata de un proyecto que marca un punto de inflexión para las empresas que desarrollan tecnologías con IA, especialmente en sectores sensibles como la salud.
Este tipo de iniciativas regulatorias no solo buscan ordenar el uso de la IA, sino también generar confianza en los sistemas automatizados, proteger a los ciudadanos frente a posibles sesgos o errores, y garantizar que la tecnología se utilice de manera ética, responsable y transparente.

¿Qué propone esta ley?
Entre sus principales lineamientos, el proyecto establece una serie de obligaciones y principios que impactarán directamente en el diseño y la operación de soluciones basadas en inteligencia artificial:
- Transparencia algorítmica obligatoria
- Clasificación de sistemas IA por nivel de riesgo
- Supervisión regulatoria activa
- Derechos de los usuarios frente a decisiones automatizadas
Estos ejes se alinean con tendencias regulatorias internacionales, como el AI Act de la Unión Europea, y refuerzan la idea de que no todas las aplicaciones de IA tienen el mismo nivel de criticidad, especialmente cuando están vinculadas a decisiones que afectan la salud, la vida o el acceso a servicios esenciales.
Para las empresas que desarrollamos soluciones en salud apoyadas en IA, implica repensar el diseño, la documentación y la explicabilidad de nuestros modelos algorítmicos.
Por ejemplo, las decisiones automatizadas en diagnóstico, priorización de pacientes o autorización de servicios estarán bajo especial escrutinio.
Esto supone un cambio de paradigma: ya no alcanza con que un modelo sea preciso o eficiente, sino que también debe ser comprensible, auditable y justificable frente a reguladores, clientes y usuarios finales.

Además, la regulación de la IA obliga a fortalecer las capacidades internas de las organizaciones, integrando equipos multidisciplinarios donde tecnología, legal, compliance, negocio y salud trabajen de manera coordinada.
Es por ello que este es el momento ideal para anticiparnos:
- Revisando arquitecturas de IA actuales
- Implementando trazabilidad y explicabilidad técnica
- Definiendo políticas de gobernanza y ética algorítmica
Anticiparse no sólo reduce riesgos regulatorios futuros, sino que también se convierte en una ventaja competitiva para aquellas organizaciones que entienden la confianza como un activo estratégico en el sector salud.
La regulación viene, y con ella grandes oportunidades para quienes apostamos por la confiabilidad, la responsabilidad y la transparencia en IA.