La expansión acelerada de los sistemas de inteligencia artificial ha transformado profundamente la manera en que las empresas desarrollan productos, gestionan datos y toman decisiones con impacto social. En este escenario, la debida diligencia aplicada a la inteligencia artificial se configura como un proceso sistemático que permite identificar, prevenir, mitigar y rendir cuentas frente a posibles impactos adversos. Más allá de un ejercicio meramente técnico, se trata de integrar la gestión del riesgo en el núcleo mismo de la toma de decisiones empresariales, extendiendo su alcance tanto a las operaciones propias como a las relaciones comerciales. Desde esta perspectiva, la orientación propuesta articula la debida diligencia con los Principios de IA de la OCDE y las Directrices para Empresas Multinacionales, promoviendo un enfoque coherente con estándares internacionales de conducta empresarial responsable. En consecuencia, la gestión del riesgo en IA no se limita a la seguridad informática o al cumplimiento normativo, sino que incorpora dimensiones como derechos humanos, transparencia, equidad, robustez técnica y responsabilidad. Así, el desarrollo y uso de sistemas de IA deben alinearse con valores centrados en las personas y con prácticas que aseguren explicabilidad y supervisión humana adecuada.
A partir de esta base conceptual, el marco se estructura en una secuencia de pasos interrelacionados. Inicialmente, se plantea la necesidad de integrar la conducta empresarial responsable en políticas internas y sistemas de gestión. Esto implica asignar responsabilidades claras a la alta dirección y a los órganos de supervisión, así como establecer líneas de comunicación que permitan gestionar riesgos de manera transversal en la organización. De este modo, la gobernanza de la IA se convierte en un componente institucionalizado, incorporado a procesos habituales y no tratado como una función aislada. Posteriormente, la identificación y evaluación de riesgos adquiere centralidad. La noción de “definir” abarca acciones como mapear, delimitar y contextualizar el uso de sistemas de IA, con el fin de comprender sus posibles efectos adversos. En paralelo, se reconocen similitudes con otros marcos de gestión de riesgos, aunque se subraya una diferencia relevante: la debida diligencia incluye impactos vinculados a relaciones comerciales y cadenas de valor, ampliando así el ámbito de responsabilidad empresarial. Esta ampliación obliga a considerar no solo lo que la empresa controla directamente, sino también aquello a lo que está vinculada por sus actividades.
Además, la participación de las partes interesadas se presenta como un elemento transversal del proceso. Trabajadores, representantes sindicales, usuarios y otros grupos potencialmente afectados pueden intervenir en diversas etapas, desde la definición de objetivos del producto hasta la validación de conjuntos de datos y la evaluación posterior al despliegue. Sin embargo, la participación no siempre resulta sencilla; factores como la complejidad técnica o la velocidad de innovación pueden limitar la interacción. Por ello, se propone planificar modalidades de involucramiento adaptadas al contexto y priorizar a los grupos más expuestos a riesgos. A medida que avanza el proceso, se enfatiza la necesidad de adoptar medidas para prevenir o mitigar impactos identificados. Esto incluye establecer umbrales de tolerancia al riesgo, actualizar políticas internas y, cuando corresponda, cesar actividades que generen consecuencias negativas significativas. Al mismo tiempo, la implementación requiere sistemas de registro y seguimiento que documenten decisiones y resultados. La “monitorización” o “seguimiento” se concibe como una actividad continua, orientada a verificar la efectividad de las acciones adoptadas y a introducir mejoras cuando sea necesario.
Asimismo, la comunicación transparente constituye otra dimensión esencial. Publicar políticas de gestión de riesgos y explicar cómo se abordan los impactos fortalece la rendición de cuentas y contribuye a generar confianza. En determinados casos, también puede ser pertinente recurrir a auditorías independientes o a mecanismos de evaluación externos que refuercen la credibilidad del proceso. De forma complementaria, se contempla la provisión o cooperación en mecanismos de reparación cuando se hayan producido efectos adversos. La orientación reconoce la diversidad de marcos regulatorios nacionales y sectoriales, lo que implica que las empresas deben adaptar sus acciones a los contextos específicos en los que operan. Esta flexibilidad no diluye la responsabilidad; por el contrario, exige una comprensión profunda de los riesgos particulares asociados a cada aplicación de IA. En definitiva, la debida diligencia en inteligencia artificial se configura como un proceso dinámico e integrado que busca equilibrar innovación tecnológica y respeto por derechos e intereses sociales, consolidando prácticas empresariales alineadas con estándares internacionales.
Para leer más ingrese a:
https://www.oecd.org/en/publications/oecd-due-diligence-guidance-for-responsible-ai_41671712-en.html