El informe describe el panorama de la normalización que abarca la IA, describiendo las actividades de las principales organizaciones de normalización (SDO), que parecen guiadas por la preocupación por la insuficiencia de conocimientos sobre la aplicación de las técnicas existentes para contrarrestar las amenazas y vulnerabilidades derivadas de la IA. El informe sostiene que las normas técnicas y organizativas de propósito general existentes pueden contribuir a mitigar algunos de los riesgos a los que se enfrenta la IA con la ayuda de orientaciones específicas sobre cómo pueden aplicarse en un contexto de IA. Esta consideración se deriva del hecho de que, en esencia, la IA es software y, por tanto, las medidas de seguridad del software pueden transponerse al ámbito de la IA. También especifica que este enfoque no es exhaustivo y que tiene algunas limitaciones. Por ejemplo, aunque el informe se centra en aspectos de software, la noción de IA puede incluir elementos técnicos y organizativos más allá del software, como el hardware o la infraestructura. Otros ejemplos son el hecho de que la determinación de las medidas de seguridad adecuadas depende de un análisis específico del sistema, y el hecho de que algunos aspectos de la ciberseguridad siguen siendo objeto de investigación y desarrollo, por lo que podrían no estar lo suficientemente maduros como para ser objeto de una normalización exhaustiva. El informe también va más allá de la mera protección de activos, ya que la ciberseguridad puede considerarse instrumental para la correcta implementación de las características de confiabilidad de la IA y -a la inversa- la correcta implementación de las características de confiabilidad es clave para garantizar la ciberseguridad. En este contexto, cabe señalar que existe el riesgo de que la confiabilidad se trate por separado en iniciativas de normalización específicas de la IA y específicas de la ciberseguridad.
El estudio consta de 5 secciones, en resumen, la sección 2 habla del alcance del informe, la definición de la IA y ciberseguridad de la IA. La sección 3 habla del apoyo de las organizaciones de normalización a la ciberseguridad de la IA. La sección 4 ofrece un análisis de la cobertura de las normas más relevantes identificadas en los capítulos anteriores con respecto al modelo de seguridad de la CIA y a las características de confianza que sustentan la ciberseguridad. La sección 5 resume el informe y recomienda acciones para garantizar el apoyo de la normalización a la ciberseguridad de la IA y a la aplicación del proyecto de Ley de IA.
Para leer más ingrese a:
https://www.enisa.europa.eu/publications/cybersecurity-of-ai-and-standardisation