En el contexto actual, los actores gubernamentales dedicados a mantener la integridad y combatir la corrupción enfrentan una encrucijada fascinante y desafiante al considerar la adopción de inteligencia artificial generativa (IA) y grandes modelos de lenguaje (LLMs). Este nuevo paradigma tecnológico ofrece oportunidades significativas, como el análisis avanzado de datos para detectar fraudes, la eficiencia operativa mediante la generación automatizada de documentos y la capacidad de resumir grandes volúmenes de información de manera rápida y precisa. Sin embargo, esta promesa viene acompañada de desafíos importantes. Entre ellos se encuentran limitaciones de datos, brechas en las habilidades necesarias para implementar y gestionar estas tecnologías, así como riesgos éticos fundamentales como el sesgo algorítmico y las preocupaciones sobre la privacidad de los datos. Es fundamental reconocer que el camino hacia la adopción exitosa de la IA generativa y los LLMs por parte de los actores gubernamentales requiere un enfoque cuidadoso y estratégico. Esto implica no solo abordar las barreras técnicas y de capacitación, sino también establecer marcos sólidos de gobernanza que aseguren la responsabilidad y la transparencia en el uso de estas herramientas. Además, es esencial evaluar de manera continua y rigurosa los posibles sesgos en los algoritmos y garantizar que se tomen medidas para mitigar cualquier impacto negativo en la equidad y la imparcialidad de las decisiones gubernamentales. En última instancia, la adopción de IA generativa y LLMs en el ámbito de la integridad y la lucha contra la corrupción representa una oportunidad emocionante para mejorar la eficiencia y la efectividad de las instituciones gubernamentales, siempre y cuando se aborden de manera proactiva los desafíos éticos y técnicos asociados con esta tecnología innovadora.
El uso de grandes modelos de lenguaje (LLMs) y la inteligencia artificial generativa (IA) en los esfuerzos de integridad y anticorrupción gubernamentales presenta una serie de oportunidades y beneficios potenciales. Por ejemplo, los LLMs pueden automatizar actividades de detección de fraudes al consultar documentos y fuentes de datos en busca de riesgos potenciales, así como ayudar en tareas operativas como la organización de grandes volúmenes de texto, análisis de causas raíz y reconocimiento de patrones. Esto puede aumentar la eficiencia, reducir errores y permitir que los auditores e investigadores se concentren en tareas de alto valor que requieran juicio humano. Además, los LLMs pueden mejorar las operaciones internas de los actores de integridad al mejorar la eficiencia operativa y analizar datos no estructurados. También pueden respaldar a los funcionarios de adquisiciones públicas al analizar datos sobre empresas y contratistas en busca de riesgos de fraude o corrupción. Aunque se destacan estos beneficios, también se reconocen los riesgos y desafíos potenciales que deben abordarse para aprovechar plenamente estas herramientas de IA. En cuanto a los beneficios potenciales y aplicaciones de la IA generativa y los LLMs para actores de integridad como las instituciones supremas de auditoría (SAIs), agencias anticorrupción (ACAs) y cuerpos de auditoría interna, los resultados de una encuesta de la OCDE señalan que el análisis de datos no estructurados se percibe como el principal beneficio potencial de los LLMs para las operaciones internas, seguido de la eficiencia operativa. Para procesos de investigación y auditoría, la recopilación de evidencia y la revisión de documentos se consideran de alto valor. Se destaca la iniciativa del TCU de Brasil en el desarrollo de ChatTCU, una herramienta basada en LLM integrada con los sistemas del tribunal, y se comparten lecciones clave aprendidas de esta experiencia. A pesar de las ventajas identificadas, se reconoce que el retorno de inversión para estas aplicaciones aún no está claro y que los ejemplos en el gobierno son limitados, lo que subraya la necesidad de un enfoque estratégico y evaluaciones continuas para aprovechar al máximo el potencial de la IA generativa y los LLMs en los esfuerzos de integridad y anticorrupción gubernamentales.
El despliegue y escalado LLMs, como ChatGPT, presenta desafíos significativos para las instituciones gubernamentales responsables de la integridad y los esfuerzos anticorrupción. Entre los puntos clave a considerar se encuentra el cumplimiento de regulaciones como el Reglamento General de Protección de Datos (GDPR) de la UE y la propuesta Ley de IA, lo que lleva a un enfoque cauteloso en su implementación. Se aconseja comenzar con procesos de bajo riesgo al probar LLMs, considerar los requisitos de TI para el escalado y utilizar datos generados internamente para obtener resultados rápidos. Los desafíos importantes incluyen la privacidad de los datos, la seguridad y las limitaciones presupuestarias, especialmente al escalar el uso de LLMs. La mayoría de los actores de integridad confían en LLMs fundacionales desarrollados por empresas tecnológicas como OpenAI, Google y Meta, a menudo utilizando una combinación de modelos de código abierto y propietarios. Si bien los LLMs de código abierto ofrecen cierta transparencia algorítmica, también son importantes los mecanismos de interpretabilidad y explicabilidad para promover la transparencia en la toma de decisiones. Las asociaciones público-privadas, las colaboraciones académicas y los enfoques híbridos son alternativas viables para desarrollar y utilizar LLMs. Se destaca la necesidad de una implementación responsable y confiable de LLMs por parte de los actores de integridad, equilibrando los posibles beneficios con el cumplimiento normativo, la privacidad de los datos y las consideraciones de transparencia. El documento también aborda el uso de LLMs como GPT-4, GPT-3.5, BERT y LLaMA por parte de actores de integridad como las instituciones supremas de auditoría y agencias anticorrupción. Se resalta el uso de técnicas como Generación Aumentada por Recuperación (RAG) para mejorar los LLMs con fuentes de datos propias de las organizaciones, mejorando la precisión y relevancia. Además, se menciona que algunos actores de integridad están utilizando LLMs existentes sin ajustes finos, mientras que otros están ajustando modelos fundacionales. Los desafíos al usar LLMs listos para usar incluyen la falta de transparencia en el uso de datos, sesgos potenciales y barreras lingüísticas, dado que muchos LLMs están entrenados principalmente en inglés. Para superar las barreras lingüísticas, algunos países están invirtiendo en el desarrollo de LLMs de código abierto en sus idiomas nativos, como GPT-NL en los Países Bajos y GPT-SW3 en Suecia. Se proporcionan ejemplos de cómo los actores de integridad están utilizando LLMs, como el proyecto LLaMandement del gobierno francés para resumir textos legislativos y el enfoque de la Oficina del Contralor General (CGU) de Brasil al ajustar el modelo LLaMA-2 para crear su propio LLM llamado Llama-2 GOV BR, que aborda desafíos como el tiempo de inferencia, escalabilidad, costos, sensibilidad de los datos y política de contenido.
El análisis de preocupaciones éticas y el aseguramiento del uso responsable de la inteligencia artificial (IA), especialmente en los esfuerzos de integridad y anticorrupción, es fundamental para garantizar la confianza pública y la efectividad de estas iniciativas. Se destaca la importancia de la supervisión humana, la participación de los interesados y la transparencia en el desarrollo y uso de modelos de IA. Se presenta el caso de estudio de la Comisión de Prevención de Corrupción (CPC) de Armenia, que utiliza IA para verificar declaraciones de activos, ilustrando los desafíos de equilibrar transparencia, privacidad y confianza pública. Se enfatiza el papel de la monitorización y evaluación en la mitigación de riesgos y consecuencias no deseadas del uso de IA. Se describe el marco de los Principios de la OCDE sobre Inteligencia Artificial, que proporciona una guía para el desarrollo y despliegue responsables de IA, centrándose en el crecimiento inclusivo, valores centrados en el ser humano, transparencia, robustez y rendición de cuentas. Asimismo, se discute la importancia de marcos normativos nacionales y directrices para el uso responsable de IA en el sector público, citando ejemplos de Suiza, los Países Bajos y Dinamarca. Igualmente, el uso de inteligencia artificial generativa para esfuerzos anticorrupción y de integridad en el gobierno presenta tanto beneficios como riesgos significativos. Los beneficios incluyen mejorar la recopilación de inteligencia, reducir la discrecionalidad humana en la toma de decisiones y automatizar ciertas tareas. Sin embargo, los riesgos destacados incluyen la capacidad de crear deepfakes, facilitar el cibercrimen, permitir la explotación por parte de funcionarios públicos, producir documentos fraudulentos, amenazar la democracia y el discurso público, e introducir sesgos o vulnerabilidades. Se enfatiza la necesidad de que los actores de integridad estén conscientes de estos riesgos al adoptar IA generativa y desarrollar medidas de control y mitigación apropiadas. Además, la IA generativa presenta riesgos relacionados con amplificar la desinformación y el spam en plataformas de consulta gubernamental, lo que podría afectar los procesos de formulación de políticas. El documento proporciona una visión completa de diferentes aspectos relacionados con el uso de inteligencia artificial generativa para el sector público, cubriendo tanto oportunidades como desafíos, incluyendo gobernanza, ética de datos, estrategias digitales gubernamentales y casos de uso específicos en la lucha contra la corrupción y la promoción de la integridad.
En definitiva, el uso de inteligencia artificial generativa (IA) y grandes modelos de lenguaje (LLMs) en la lucha contra la corrupción y para mantener la integridad en el gobierno ofrece oportunidades valiosas, como la detección de fraudes avanzada y la eficiencia en la generación de documentos. Sin embargo, también plantea desafíos como el sesgo algorítmico y preocupaciones sobre la privacidad de los datos. Es crucial abordar estos desafíos con un enfoque estratégico y responsable, asegurando la transparencia y evaluando continuamente posibles sesgos para garantizar decisiones imparciales. En resumen, la adopción de IA generativa y LLMs representa una oportunidad emocionante para mejorar la efectividad gubernamental, siempre que se gestionen cuidadosamente los riesgos éticos y técnicos asociados.