La inteligencia artificial aplicada a la salud se presenta como una oportunidad para transformar diagnósticos, administración de sistemas, descubrimiento de fármacos y experiencias de pacientes. Sin embargo, la adopción enfrenta obstáculos derivados de infraestructuras fragmentadas, políticas no alineadas y vacíos de gobernanza. Aunque su uso administrativo ya es universal en los países de la OCDE, la escala nacional en aplicaciones clínicas como la imagen médica apenas alcanza un 10%. Esta brecha refleja tanto la falta de coordinación como la dificultad de generar confianza en tecnologías que, si bien prometen eficiencia y precisión, también plantean riesgos de privacidad, sesgos en los datos y desplazamiento laboral. Por ello, la discusión se centra en cómo avanzar hacia una adopción responsable que equilibre la rapidez del mercado con la cultura de “no hacer daño” propia del sector salud.
Para responder a estos retos, se ha diseñado un marco de acción basado en un checklist de políticas que articula cuatro pilares: habilitadores, guardrails, compromiso social y confianza. Los habilitadores incluyen el fortalecimiento de la gobernanza de datos bajo principios FAIR, la creación de infraestructuras técnicas interoperables y el desarrollo de capacidades tanto en el personal sanitario como en los sistemas de soporte. Los guardrails buscan establecer objetivos comunes y mecanismos de supervisión que permitan medir beneficios clínicos y económicos, evitando que la innovación avance sin control. El compromiso social se traduce en la necesidad de involucrar a pacientes, profesionales y la industria en procesos educativos y deliberativos, lo que refuerza la legitimidad de las decisiones. Finalmente, la confianza se construye mediante evaluaciones éticas y marcos regulatorios que aseguren que las soluciones de IA se orienten al bienestar humano.
La implementación de este enfoque revela avances desiguales entre países. Algunos han establecido estrategias nacionales, cuerpos de supervisión o marcos de pruebas regulatorias, mientras que otros apenas comienzan a actualizar guías de adquisición o legislación específica. La fragmentación genera costos adicionales para innovadores, especialmente pequeñas y medianas empresas, que enfrentan procesos heterogéneos de aprobación y evaluación. Además, la falta de claridad sobre cómo integrar capacidades emergentes, como sistemas adaptativos o agentic AI, ralentiza la competitividad y limita el alcance de los beneficios. En este sentido, la cooperación multilateral aparece como una vía para reducir barreras innecesarias y armonizar políticas, de modo que la innovación pueda escalar sin comprometer la seguridad ni la equidad.
El potencial de la inteligencia artificial en salud se refleja en mejoras tangibles: diagnósticos más precisos, reducción de tiempos de espera, optimización de recursos y experiencias más humanas en la atención. Sin embargo, alcanzar estos beneficios requiere superar la disparidad entre instituciones con abundantes recursos y aquellas con limitaciones técnicas o financieras. La adopción responsable implica garantizar que la innovación llegue a todos, incluidas comunidades rurales o con baja alfabetización digital, y que se respeten principios de soberanía de datos en contextos indígenas. Así, el futuro de la IA en salud dependerá de la capacidad de articular políticas coherentes, fomentar la confianza pública y asegurar que la tecnología se despliegue con equidad, transparencia y sostenibilidad, evitando tanto los riesgos de inacción como los de una implementación apresurada.
Para leer más ingrese a:
https://www.oecd.org/en/publications/scaling-artificial-intelligence-in-health_a436e12d-en.html