Defining AI incidents and related terms

Defining AI incidents and related terms

A medida que crece el uso de la IA, también lo hacen sus beneficios y sus riesgos. Estos riesgos pueden dar lugar a daños reales, incidentes de IA, o peligros potenciales, peligros de IA. Unas definiciones claras son esenciales para gestionar y prevenir estos riesgos. Este informe propone definiciones para los incidentes de IA y términos relacionados. Estas definiciones pretenden fomentar la interoperabilidad internacional, al tiempo que proporcionan flexibilidad a las jurisdicciones para determinar el alcance de los incidentes y peligros de la IA que desean abordar. En enero de 2023, la OCDE formalizó el Grupo de Expertos en Incidentes de IA de la OCDE. AI para avanzar en el desarrollo de i) un marco común de notificación de incidentes de IA y ii) un Monitor de Incidentes de IA (AIM). Este informe proporciona definiciones y terminología preliminares relacionadas con los incidentes de IA para apoyar el desarrollo y avance de ambas iniciativas. A medida que se generaliza el uso de los sistemas de IA, también aumenta la posibilidad de que causen daños a las personas, las organizaciones y el medio ambiente. Los daños causados por los sistemas de IA pueden ir de leves a graves y afectar a distintos grupos de personas, sectores y aspectos de la vida. Los sistemas de IA deben ser dignos de confianza y confiables para evitar efectos negativos en las personas, las organizaciones y el medio ambiente. Para lograrlo, los actores de la IA deben utilizar los mismos términos para hablar de los problemas y fallos de los sistemas de IA, de modo que se pueda aprender a nivel internacional y evitar que se repitan. A grandes rasgos, estos sucesos se engloban bajo el término emergente de incidentes de IA. Este informe ofrece definiciones de incidentes de IA y términos relacionados, basadas en el trabajo del Grupo de Expertos en Incidentes de IA de la OCDE y el Grupo de Trabajo sobre Gobernanza de la IA (AIGO) de la OCDE. Un suceso en el que el desarrollo o el uso de un sistema de IA provoca un daño real se denomina incidente de IA, mientras que un suceso en el que el desarrollo o el uso de un sistema de IA es potencialmente dañino se denomina peligro de IA. Este informe también incluye definiciones propuestas para la terminología asociada, incluyendo lo que constituye peligros de IA, peligros graves de IA, incidentes graves de IA y catástrofes de IA, sin ser excesivamente prescriptivo. Estas definiciones están diseñadas para facilitar la interoperabilidad internacional, proporcionar la flexibilidad necesaria para abarcar los daños reales y/o potenciales y permitir que cada jurisdicción determine la gama de incidentes y peligros de IA que desea abordar. 

El concepto de daño es fundamental para las normas y reglamentos técnicos que definen los incidentes y peligros. Los distintos marcos consideran diferentes dimensiones del daño en función del contexto específico, el entorno normativo, los objetivos y las áreas de impacto. Un rasgo común a la mayoría de estos marcos es que las definiciones de incidentes que utilizan suelen centrarse en el daño potencial, el daño real o ambos. El daño potencial suele expresarse como el riesgo o la probabilidad de que se produzca un daño. El riesgo es una función tanto de la probabilidad de que se produzca un suceso como de la gravedad de las consecuencias que se derivarían. Por ejemplo, el riesgo de explosión en una planta química es mayor si la planta se encuentra en una zona densamente poblada, y las consecuencias de una explosión serían graves. Es crucial identificar y abordar los riesgos y peligros que pueden derivarse del desarrollo y uso de sistemas de IA para la gestión de riesgos y los marcos de notificación de incidentes de IA. El daño potencial suele asociarse al concepto de peligro. El daño real suele expresarse como un riesgo que se materializa en daño. Las definiciones de daño real en las normas y reglamentos dependen en gran medida del contexto. Generalmente se centran en lesiones físicas o daños a la salud, la propiedad o el medio ambiente. El grupo de expertos en incidentes de IA de la OCDE. AI pretende desarrollar un marco común de notificación de incidentes de IA que permita evaluar adecuadamente los daños y riesgos en el contexto de la IA. El marco ayudará a identificar los tipos clave de daños, como los daños físicos, medioambientales, económicos y de reputación, los daños al interés público y los daños a los derechos fundamentales. También abordará otras dimensiones del daño, como el nivel de gravedad, el alcance, la escala geográfica, la tangibilidad, la cuantificabilidad, la materialización, la reversibilidad, la recurrencia, el impacto y el plazo. La evaluación de la «gravedad» de un incidente, daño, perjuicio o perturbación de la IA (por ejemplo, para determinar si un suceso se clasifica como incidente o incidente grave) depende del contexto y también se deja para un debate posterior. Las definiciones incluidas en este documento se proponen para que sirvan de base al desarrollo y avance del marco común de información sobre IA y del Monitor de Incidentes de IA (AIM) de la OCDE.

 

El informe aborda la necesidad de establecer un marco común para definir los incidentes relacionados con la inteligencia artificial (IA). El objetivo principal es proporcionar claridad conceptual y facilitar la comunicación entre los distintos actores involucrados en el desarrollo, despliegue y regulación de la IA. El informe comienza destacando la importancia de definir términos clave para abordar los desafíos éticos, legales y técnicos que surgen en torno a la IA. En primer lugar, se define un «incidente de IA» como cualquier evento o situación, intencionado o no, que tenga un impacto negativo en los derechos, la seguridad o el bienestar de los individuos, grupos o la sociedad en general. Este enfoque amplio busca abarcar tanto los incidentes causados por errores técnicos como aquellos derivados de decisiones éticamente cuestionables o ilegales. El informe también establece una serie de términos relacionados, como «falla de IA» (cuando un sistema de IA no funciona como se espera), «sesgo de IA» (cuando un sistema de IA produce resultados injustos o discriminatorios), y «impacto de IA» (los efectos de la IA en los individuos, la sociedad o el medio ambiente). Además, se distingue entre incidentes «individuales» (afectan a un individuo o un grupo específico) e incidentes «sistémicos» (tienen un impacto más amplio en la sociedad). Para abordar estos desafíos, se propone un marco de cuatro dimensiones para la evaluación de incidentes de IA: impacto, intencionalidad, causalidad y contexto. Esta estructura pretende ayudar a los responsables políticos, desarrolladores y otros actores a comprender mejor los incidentes de IA y a tomar decisiones informadas sobre cómo abordarlos. En resumen, el informe de la OECD ofrece una base sólida para abordar los desafíos éticos y prácticos asociados con los incidentes de IA, fomentando así un desarrollo más responsable y ético de esta tecnología.

Para leer más ingrese a:

 
¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)

Compartir artículo

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Busca los documentos, noticias y tendencias más relevantes del sector eléctrico

Buscador de documentos
Buscador de noticias y tendencias

Banco de Información

Descripción del semáforo tecnológico

Los documentos se clasifican en varios colores tipo semáforo tecnológico que indican el nivel de implementación de la tecnología en el país

Tecnología en investigación que no ha sido estudiado o reglamentado por entidades del sector.

La tecnología se aplica de manera focal y se encuentra en estudio por parte de las entidades del sector.

La tecnología se aplica de manera escalable y se encuentran políticas y regulaciones focales establecidas.

La tecnología se aplica a través de servicios  y se encuentran políticas y regulaciones transversales establecidas.

La tecnología se aplica de manera generalizada  y se tiene un despliegue masivo de esta.

Para acceder a todos los documentos publicados y descargarlos ingresa aquí