Assessing potential future artificial intelligence risks, benefits and policy imperatives

La rápida evolución de las tecnologías de inteligencia artificial (IA) exige que los responsables de la toma de decisiones consideren y gestionen proactivamente el cambio impulsado por la IA. El Grupo de Expertos de la OCDE sobre los Futuros de la IA fue establecido con el propósito de satisfacer esta necesidad, anticipando los desarrollos de la IA y sus posibles impactos. La iniciativa tiene como objetivo proporcionar a los gobiernos información que facilite la elaboración de políticas de IA orientadas al futuro. El informe discute investigaciones y perspectivas de expertos sobre los beneficios, riesgos y políticas necesarias en relación con la IA. Aunque ofrece orientación para los responsables de la toma de decisiones, se alienta a estos a mantenerse conscientes de las incertidumbres, buscar activamente diversas perspectivas y monitorear de manera vigilante las implicaciones sociales de las innovaciones en IA. El Grupo de Expertos identificó las características de los futuros deseables para la IA mediante una encuesta, discusiones y la exploración de escenarios. Estas incluyen la distribución generalizada de los beneficios de la IA; el respeto a los derechos humanos, la privacidad y los derechos de propiedad intelectual; la creación de más y mejores empleos; sistemas físicos, digitales y sociales resilientes; mecanismos para maximizar la seguridad de la IA y prevenir su mal uso; medidas para evitar la concentración excesiva de poder; prácticas sólidas de gestión de riesgos en la formación, implementación y uso de sistemas de IA que puedan conllevar riesgos elevados; y cooperación internacional y multilateral para una IA confiable. Estas características representan la realización de los beneficios de la IA y la mitigación de sus riesgos.

Los gobiernos pueden tomar medidas para ayudar a hacer realidad futuros positivos para la IA. La OCDE trabajó con los miembros del Grupo de Expertos a través de encuestas y discusiones para identificar prioridades en políticas y gobernanza. El Anexo A proporciona detalles sobre la metodología utilizada. Las iniciativas políticas reconocen la importancia de estos temas. Los desarrollos recientes incluyen la revisión de los Principios de IA de la OCDE, la finalización del Acta de IA de la Unión Europea y la Convención Marco del Consejo de Europa sobre IA y Derechos Humanos, Democracia y Estado de Derecho; acciones ejecutivas en países como Estados Unidos, el lanzamiento de institutos nacionales de seguridad en IA y de investigación; compromisos respaldados por empresas de IA; esfuerzos por aumentar el talento relevante en los gobiernos y aplicar la regulación existente en el contexto de la IA; inversiones públicas en investigación y desarrollo de IA; y las iniciativas de las Naciones Unidas y sus agencias. Los esfuerzos en el horizonte, como la Directiva de Responsabilidad de la UE, también podrían avanzar hacia una IA beneficiosa. Sin embargo, existen oportunidades para tomar medidas más concretas. Los gobiernos deben considerar cómo implementar mejor las acciones prioritarias en políticas y fortalecer sus capacidades para anticipar y dar forma a los futuros de la IA.

Las implicaciones a medio y largo plazo de los sistemas de IA de rápida evolución siguen siendo en gran parte desconocidas y son objeto de intensos debates. Los expertos plantean una serie de riesgos potenciales futuros de la IA, algunos de los cuales ya están comenzando a hacerse visibles. Al mismo tiempo, los expertos y otros esperan que la IA proporcione beneficios significativos o incluso revolucionarios. Las actividades orientadas al futuro pueden ayudar a comprender mejor los posibles impactos a largo plazo de la IA y comenzar a darles forma en el presente para aprovechar sus beneficios mientras se gestionan sus riesgos. La IA puede acelerar la investigación científica y generar soluciones que contribuyan a avances en áreas como la atención sanitaria y el cambio climático. Ciertas políticas podrían habilitar la innovación en IA confiable, cuyos beneficios serían compartidos ampliamente dentro y entre países y distribuidos equitativamente entre los grupos de interés, sectores y el público, mientras se previenen implementaciones o usos del sistema con un potencial sustancial de daño.

Todos los países, incluidas las economías emergentes y en desarrollo, se beneficiarían de los potenciales socioeconómicos de la IA. Las personas se verían empoderadas a través de la IA, por ejemplo, mediante nuevas herramientas basadas en datos para tomar decisiones más informadas, con un enfoque en mujeres y comunidades marginadas. Los gobiernos facilitarían esto aprovechando la IA para interactuar con los ciudadanos e incorporar sus opiniones en la toma de decisiones, reforzando así la democracia y la participación en la vida pública.Las capacidades de las organizaciones de la sociedad civil (OSC) y los socios sociales, como los sindicatos, se verían fortalecidas por la IA, permitiéndoles conectarse mejor con los ciudadanos y trabajadores y obtener información valiosa. A través de nuevas formas de analizar datos abiertos del gobierno y sus productos, la IA permitiría a las OSC de todo el mundo proporcionar una supervisión independiente más sólida del gobierno. Este papel de supervisión se vería facilitado aún más por los requisitos o normas de divulgación para ciertos sistemas de IA que ayuden a comprender su funcionamiento y fomenten un ecosistema de evaluadores independientes. En el lugar de trabajo, el uso de la IA sería confiable y sus beneficios se distribuirían de manera justa, permitiendo que los trabajadores y los socios sociales también utilicen la IA para fortalecer la organización e informar la negociación colectiva. El público tendría acceso a información confiable y auténtica, educación mejorada y personalizada, así como oportunidades de recualificación.

Los desarrolladores y los implementadores de sistemas de IA, así como las partes externas como los auditores, usarían ampliamente referencias, evaluaciones y herramientas técnicas para detectar, mitigar y corregir sesgos y discriminación dañina. Estarían disponibles y serían adoptados ampliamente marcos y prácticas para garantizar que los sistemas de IA se diseñen, desarrollen, implementen y utilicen de acuerdo con los derechos humanos. Estarían en vigor políticas y soluciones para proteger los datos personales, especialmente en casos de uso de alto riesgo o sistemas que puedan impactar a poblaciones vulnerables. Se desarrollarían y estarían disponibles herramientas técnicas y otras medidas protectoras contra actividades maliciosas facilitadas por la IA, que serían utilizadas por los desarrolladores e implementadores de IA. Los requisitos de seguridad para infraestructuras críticas, tanto físicas como de información, se adaptarían para reflejar los riesgos derivados del uso de la IA. Para ayudar a garantizar la resiliencia de los sistemas sociales, las iniciativas gubernamentales facilitarían la transición de los mercados laborales, incluidos los esfuerzos de recualificación y la consideración de nuevas redes de seguridad social. 

Además, un conjunto de esfuerzos a nivel internacional y nacional reforzaría la democracia y la integridad de la información, incluyendo procesos efectivos que permitan elecciones libres y justas y mitiguen la distribución masiva de desinformación. Las decisiones relacionadas con el desarrollo, implementación y uso de sistemas de IA con impactos significativos en las sociedades y economías se descentralizarían cuando fuera posible, con medidas adecuadas de transparencia, procesos de responsabilidad, normas de responsabilidad y supervisión efectiva. En relación con la IA y los insumos y habilitadores clave, se implementarían mecanismos para mitigar la concentración indebida del poder de mercado, económico o político en manos de uno o muy pocos proveedores. Habría enfoques adecuados para la gestión de riesgos en el desarrollo, implementación y uso de sistemas de IA, particularmente aquellos que puedan representar riesgos elevados. Estos enfoques incluirían evaluaciones de riesgos transparentes, procedimientos de mitigación de riesgos y líneas rojas que prohíban usos que representen riesgos inaceptables. Las organizaciones encargadas de supervisar la gestión de riesgos, incluidas las del sector público, tendrían mandatos, autoridades y capacidades interdisciplinares suficientes para comprender y supervisar tales enfoques.

Para leer más ingrese a:

https://www.oecd-ilibrary.org/science-and-technology/assessing-potential-future-artificial-intelligence-risks-benefits-and-policy-imperatives_3f4e3dfb-en

https://www.oecd-ilibrary.org/docserver/3f4e3dfb-en.pdf?expires=1732025009&id=id&accname=guest&checksum=5CF987EC53CF13E590D6F10DC680336E

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)

Compartir artículo

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Busca los documentos, noticias y tendencias más relevantes del sector eléctrico

Buscador de documentos
Buscador de noticias y tendencias

Banco de Información

Descripción del semáforo tecnológico

Los documentos se clasifican en varios colores tipo semáforo tecnológico que indican el nivel de implementación de la tecnología en el país

Tecnología en investigación que no ha sido estudiado o reglamentado por entidades del sector.

La tecnología se aplica de manera focal y se encuentra en estudio por parte de las entidades del sector.

La tecnología se aplica de manera escalable y se encuentran políticas y regulaciones focales establecidas.

La tecnología se aplica a través de servicios  y se encuentran políticas y regulaciones transversales establecidas.

La tecnología se aplica de manera generalizada  y se tiene un despliegue masivo de esta.

Para acceder a todos los documentos publicados y descargarlos ingresa aquí