La adopción de la inteligencia artificial (IA) en las instituciones prestadoras de servicios de salud (IPS) en Colombia avanza de manera muy rápida, situación impulsada por la necesidad de mejorar la eficiencia operativa, apoyar el juicio clínico y fortalecer la calidad de la atención; sin embargo, hay que tener en cuenta que este proceso conlleva riesgos éticos, clínicos y legales, lo que obliga a que las instituciones adopten marcos sólidos de gobernanza y gestión responsable. Este artículo propone una reflexión de todos los riesgos mencionados, a manera de invitación, sobre cómo preparar las instituciones para una adopción segura y confiable de la IA. Se presentan los elementos clave de gobernanza, las políticas y comités recomendados, un plan de implementación y los principales riesgos éticos con sus estrategias de mitigación, alineados con el contexto normativo colombiano y la realidad operativa de las IPS.
Martha Edith Oyuela M. MD. M. Sc.
La IA se ha convertido en una herramienta presente en la operación cotidiana de clínicas y hospitales. Hoy se utiliza para apoyar procesos diagnósticos, optimizar flujos asistenciales, priorizar pacientes, automatizar tareas administrativas y analizar grandes volúmenes de datos clínicos; sin embargo, esta adopción acelerada plantea una pregunta fundamental que no siempre se aborda con suficiente profundidad: ¿están las IPS preparadas para asumir, de manera responsable, las decisiones que apoyan o influyen a través de sistemas de IA?
Es fundamental hacer una reflexión institucional dirigida a los líderes del sector salud colombiano. Más que discutir modelos o algoritmos, invita a pensar la IA como un asunto de gobernanza, responsabilidad y liderazgo. En salud innovar sin gobernanza no es solo un riesgo tecnológico, sino un riesgo ético y organizacional.
Cuando hablamos de gobernanza de la IA aplicada a la salud hablamos del conjunto de marcos, políticas, procesos, roles y mecanismos de supervisión que garanticen que el uso de la IA en contextos clínicos sea ético, seguro, transparente, responsable y centrado en la persona.
La gobernanza en IA abarca decisiones clínicas apoyadas en la tecnología y cómo impactan a los pacientes, profesionales de la salud, instituciones y sistemas de salud, y es la que define cómo se toman decisiones sobre el diseño, la adquisición, la implementación, el uso, la evaluación y el retiro de sistemas de IA en salud, lo cual exige contar con políticas institucionales, establecer claramente roles y responsabilidades dentro de la institución, la creación de comités clínicos y éticos en torno a la IA, mecanismos de evaluación de riesgos y establecimiento de auditorías y rendición de cuentas.
Una herramienta o producto basado en IA puede funcionar técnicamente sin gobernanza, pero sin ella los riesgos clínico, ético y legal son enormes. La gobernanza de la IA en salud tiene un trasfondo filosófico profundo que antecede al desarrollo de modelos y algoritmos. Surge de la reflexión ética sobre el cuidado de la vida humana, la responsabilidad moral en la práctica médica y los límites del poder tecnológico cuando interviene en decisiones clínicas.
Desde la ética del cuidado, la persona que está enferma se convierte en un sujeto vulnerable que no se puede reducir a un dato o una probabilidad; por tanto, la gobernanza de la IA en salud busca evitar que la tecnología “deshumanice” la atención o reemplace la dimensión humana del cuidado, de tal manera que se preserve el modelo de atención centrado en la persona.
Constituye uno de los pilares filosóficos más sólidos de la gobernanza de la IA en salud. Los principios de autonomía, beneficencia, no maleficencia y justicia se traducen en deberes para el uso de IA aplicada a la salud, por tanto, la gobernanza institucionaliza estos principios en políticas y procesos.
Desde la filosofía moral, la IA carece de intencionalidad y responsabilidad. No puede responder moralmente por una decisión clínica. La gobernanza evita que se deleguen estos aspectos a las máquinas y asegura que la responsabilidad se mantenga en los profesionales de la salud y en las instituciones.
La IA genera una tensión epistemológica en la medicina, debido a que la práctica clínica se ha basado históricamente en la comprensión causal y el razonamiento clínico; muchos modelos de IA trabajan solo mediante correlaciones, que a veces no son transparentes. En este sentido, la gobernanza permite definir cuándo una predicción es aceptable, actuando como un control epistemológico que integra los modelos de IA al conocimiento clínico.
Es determinante tener una mirada crítica sobre el impacto social de la IA en salud, debido a que se pueden generar desigualdades o sesgos, o se puede priorizar la eficiencia sobre la equidad. La gobernanza debe responder mediante evaluaciones del impacto ético y social, protegiendo a grupos vulnerables y evitando que la tecnología se convierta en un instrumento que excluya o genere injusticias.
La gobernanza define que la tecnología debe estar al servicio del ser humano, inspirada en el principio de responsabilidad, con el fin de anticipar las consecuencias del uso de la IA en los seres humanos. Gobernar la IA aplicada a la salud es decidir qué tipo de medicina se quiere ejercer en esta cuarta revolución, para lograr que sea una medicina centrada en la persona, responsable, justa y profundamente humana.
Las aplicaciones de IA en las IPS abarcan ámbitos clínicos, administrativos y de soporte a la gestión. Entre sus beneficios principales están: la reducción de la variabilidad clínica, la priorización de pacientes de alto riesgo, la mejora en la eficiencia operativa, el apoyo a la calidad y la seguridad del paciente, entre otros; sin embargo, estos beneficios pueden verse vulnerados si la IA se implementa sin controles adecuados. Los riesgos incluyen: sesgos que afectan la equidad en la atención, sobreconfianza en las herramientas basadas en IA, pérdida de trazabilidad de las decisiones clínicas, exposición de datos sensibles y, lo más grave, el debilitamiento de la relación médico-paciente o del vínculo clínico.
En Colombia la IA en salud se desarrolla sobre dos pilares: la vida y la integridad del paciente, y el manejo de datos personales y sensibles. La historia clínica es un documento privado sujeto a reserva, cuyo tratamiento está regulado por normas estrictas. Adicionalmente, la Ley 1581 del 2012 y los lineamientos recientes de la Superintendencia de Industria y Comercio para IA imponen obligaciones claras sobre el uso de datos personales. La Política Nacional de Inteligencia Artificial (CONPES 4144 del 2025) refuerza la necesidad de gobernanza, ética y mitigación de riesgos.
Colombia cuenta hoy con un marco normativo que reconoce la sensibilidad de la información en salud y la necesidad de un uso ético de la IA. La protección de la historia clínica, el régimen de datos personales y la Política Nacional de Inteligencia Artificial establecen un punto de partida claro.
No obstante, para clínicas y hospitales cumplir la norma no es suficiente. El verdadero desafío está en traducir estos principios en prácticas institucionales concretas que protejan al paciente, orienten al talento humano y den seguridad a las juntas directivas frente a decisiones de alto impacto.
Para las clínicas y hospitales, prepararse para la IA implica desarrollar capacidades institucionales previas a la implementación tecnológica. Desde el liderazgo, es fundamental que la alta dirección reconozca la IA como un asunto estratégico y no únicamente tecnológico. En el ámbito clínico, por su parte, se deben priorizar casos de uso con valor asistencial comprobable y definir claramente el rol de la IA como apoyo a la decisión, sin reemplazar el juicio profesional. En materia de datos, las IPS deben fortalecer la calidad, la interoperabilidad y la gobernanza de la información clínica y contar con bases jurídicas claras, políticas de privacidad robustas y controles de ciberseguridad.
¿Cómo preparar a los hospitales para cumplir la gobernanza de la IA en salud? Para esto se requiere un enfoque integral que combine liderazgo institucional, estructuras organizacionales, marcos éticos, gestión de datos, gestión clínica y cultura organizacional. No se trata únicamente de la implementación de tecnología, sino de gobernar las decisiones clínicas con el apoyo de herramientas de IA.
El primer paso es comprender que la IA en salud no es un proyecto exclusivo del área de sistemas. Su uso impacta directamente decisiones clínicas y, por tanto, involucra a la dirección médica, la gestión de calidad, la seguridad del paciente, la ética clínica y el área jurídica, lo que llama a realizar un trabajo interdisciplinario.
Todo hospital debe establecer un comité de gobernanza de IA aplicada a la salud, de carácter interdisciplinario. Este comité debe incluir representantes de la dirección médica y clínicos que usen la IA para la toma de decisiones, el mantenimiento de la calidad y la seguridad del paciente, la ética clínica, el área jurídica, los sistemas de información, la protección de datos y, si es posible, contar con la representación de pacientes. La función principal del comité es evaluar, autorizar, supervisar o suspender el uso de IA, si es el caso.
Es fundamental contar con una política institucional que establezca los principios rectores para el uso de la IA. Esta política debe definir qué se entiende por IA en la institución, cuáles son los usos permitidos, el rol de la IA como apoyo al juicio clínico, las responsabilidades institucionales y el compromiso con la atención centrada en la persona.
La gobernanza de datos es uno de los pilares más importantes de la gobernanza de la IA. La clínica o el hospital debe identificar las fuentes de sus datos clínicos, definir responsables, asegurar la calidad y la trazabilidad, promover la interoperabilidad mediante estándares como HL7/FHIR y DICOM, y establecer reglas claras para el uso secundario de datos, garantizando privacidad y seguridad.
Antes de implementar cualquier sistema de IA, el hospital debe realizar una evaluación estructurada que analice el problema clínico por resolver, la evidencia de beneficio, la validación en poblaciones similares, los riesgos potenciales, la explicabilidad del modelo y los mecanismos de respuesta ante fallas de este.
La IA debe integrarse de manera armónica al flujo asistencial, sin imponer decisiones automáticas. Las recomendaciones deben ser claras y explicables; el profesional de la salud debe conservar la capacidad de aceptar o rechazar lo que arrojan los modelos y debe quedar registro del uso de la IA en la atención del paciente, lo que conduce a la creación de consentimiento informado para su uso.
Se debe capacitar al personal clínico y administrativo. La formación debe incluir conceptos básicos de IA, riesgos y sesgos, uso responsable, limitaciones de los modelos y responsabilidad profesional, con el fin de que sean usuarios críticos y conscientes.
En el entorno clínico y hospitalario cada decisión tecnológica tiene implicaciones clínicas, éticas y legales, por lo que el tema de la gobernanza de la IA no puede recaer únicamente en áreas de tecnología o innovación, sino que debe ser asumida como una responsabilidad explícita de la alta dirección, al mismo nivel que la seguridad del paciente, la calidad asistencial y la sostenibilidad institucional. Cuando la IA se implementa sin marcos claros de gobernanza surgen riesgos como: iniciativas aisladas, dependencia de proveedores, falta de trazabilidad en las decisiones y exposición a eventos adversos.
La IA ha ingresado de manera cada vez más acelerada a la operación diaria de clínicas y hospitales en Colombia. Hoy apoya procesos diagnósticos, optimiza flujos asistenciales, automatiza tareas administrativas y promete mejorar la eficiencia del sistema. Sin embargo, esta adopción acelerada plantea una pregunta que el sector salud no puede seguir posponiendo: ¿cómo asegurar que el uso de la IA se realice de manera responsable, segura y alineada con los valores éticos y morales que sustentan la atención en salud y con el modelo de atención centrado en la persona?
Desde una perspectiva responsable esta no es una discusión tecnológica; es de carácter institucional y estratégico. La IA no solo introduce nuevas herramientas, sino nuevas formas de tomar decisiones que afectan directamente a pacientes, profesionales y organizaciones.
Para clínicas y hospitales, la gobernanza de la IA no debe verse como una barrera, sino como un habilitador de la innovación sostenible. Las instituciones que integren tempranamente marcos de gobernanza estarán mejor preparadas para responder a exigencias regulatorias, proteger la seguridad del paciente y generar confianza en el uso de tecnologías, las cuales avanzan a pasos agigantados. En el contexto colombiano la articulación entre política pública, autorregulación institucional y liderazgo clínico resulta esencial para evitar una adopción fragmentada de la IA aplicada a la salud.
La IA ofrece oportunidades significativas para fortalecer el desempeño de las IPS en Colombia, pero su adopción exige responsabilidad institucional. Implementar marcos de gobernanza claros, políticas coherentes y comités interdisciplinarios permitirá a clínicas y hospitales aprovechar el potencial de la IA sin comprometer la seguridad del paciente, la ética del cuidado ni la confianza en el sistema de salud. La Asociación Colombiana de Hospitales y Clínicas (ACHC) puede desempeñar un papel clave como articulador de buenas prácticas y referente sectorial en este proceso.
Bodnari, A. y Travis, J. Scaling enterprise AI in healthcare: the role of governance in risk mitigation frameworks. NPJ Digit Med., 8(1), 272. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC12075486/
Dankwa-Mullan, I. (2024). Health Equity and Ethical Considerations in Using Artificial Intelligence in Public Health and Medicine. Prev Chronic Dis, 21, 240245. https://www.cdc.gov/pcd/issues/2024/24_0245.htm
Freeman, S., Wang, A., Saraf, S., Potts, E., McKimm, A., Coiera, E. y Magrabi, F. (2025). Developing an AI Governance Framework for Safe and Responsible AI in Health Care Organizations: Protocol for a Multimethod Study. JMIR Res Protoc, 14, e75702. https://www.researchprotocols.org/2025/1/e75702
Kim, J. Y., et al. (2025). Establishing organizational AI governance in healthcare: a case study in Canada. NPJ Digit Med., 8(1), 522. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC12356831/
Muralidharan, V., et al. (2025). Global Initiative on AI for Health (GI-AI4H): strategic priorities advancing governance across the United Nations. NPJ Digit Med., 8(1), 219. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC12019307/
Pham, T. (2025). Ethical and legal considerations in healthcare AI: innovation and policy for safe and fair use. R Soc Open Sci., 12(5), 241873. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC12076083/
UNESCO. (2025). Recommendation on the Ethics of Artificial Intelligence. https://www.unesco.org/es/artificial-intelligence/recommendation-ethics
Weiner, E. B., Dankwa-Mullan, I., Nelson, W. A. y Hassanpour, S. (2025). Ethical challenges and evolving strategies in the integration of artificial intelligence into clinical practice. PLOS Digit Health, 4(4), e0000810. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC11977975/
World Health Organization (WHO). (2025). Ethics and governance of artificial intelligence for health. https://www.who.int/publications/i/item/9789240084759
CONTÁCTENOS
Mayor Información Tel: (+57) 601 312 4411 –Fax: (+57) 601 312 1005 Cra 4 No. 73 – 15 Bogotá D.C.
COPYRIGHT © 2022 – Todos los derechos reservados
Prohibida su reproducción parcial o total sin autorización escrita de su titular
Powered by windowschannel.com