El concepto de apertura en la inteligencia artificial (IA) involucra diversas dimensiones que impactan tanto en la innovación como en la gobernanza de estas tecnologías. La variedad en los niveles de acceso a componentes como datos, código y documentación permite distinguir entre sistemas completamente cerrados y otros totalmente abiertos, aunque en la práctica, la tendencia se sitúa en un espectro de grados intermedios. La disponibilidad de ciertos elementos, como los pesos de los modelos y algoritmos, puede facilitar que actores externos reproduzcan, modifiquen y utilicen estas herramientas, lo que puede incentivar el avance tanto en aplicaciones beneficiosas como en potenciales usos dañinos. Sin embargo, ese mismo acceso abierto también genera inquietudes relacionadas con la privacidad, la seguridad y el control del contenido, dado que el compartir de manera indiscriminada puede facilitar actividades maliciosas o el uso no ético de estas tecnologías.
A lo largo de la discusión, se señala que la terminología empleada en el ámbito de IA, en particular los términos como «código abierto», no capta del todo la complejidad de los componentes del sistema, que puede incluir no solo código en sí, sino también datos y documentaciones que en muchos casos permanecen en reserva. Por ello, la atribución de un nivel de apertura requiere una comprensión matizada que considere estos distintos aspectos, entendiendo que la apertura no representa una condición binaria, sino un rango que puede variar en intensidad según la libertad de acceso y modificación otorgada a cada componente. El análisis además destaca cómo la elección de licencias y la regulación puede influir en la velocidad de innovación y en los riesgos potenciales, debido a que distintas decisiones sobre el acceso impactan en la capacidad de colaboración, pero también en la vulnerabilidad ante usos ilícitos.
En este contexto, los modelos generativos con pesos abiertos ofrecen múltiples ventajas. Por ejemplo, al facilitar la colaboración global y permitir que distintos actores adapten los modelos a necesidades específicas, se fomenta un entorno donde se multiplican las posibilidades de empleo en diferentes ámbitos, desde la investigación hasta aplicaciones comerciales. No obstante, también existen riesgos asociados, como la generación de contenido malintencionado o desinformación, además de preocupaciones relacionadas con la protección de la privacidad, puesto que el acceso sin restricciones puede facilitar la extracción y el uso indebido de datos sensibles. Desde esta perspectiva, la valoración de los beneficios y riesgos requiere un análisis holístico que tenga en cuenta no solo las ventajas inmediatas en innovación, sino también las implicaciones a largo plazo en términos éticos y de seguridad.
La incorporación del concepto de marginalidad en el análisis sugiere que no todos los impactos de la apertura son iguales y que, en ciertos casos, los beneficios o riesgos adicionales pueden ser menores comparados con los efectos principales. Esto permite evaluar con mayor precisión cómo diferentes niveles de acceso afectan a la sociedad en su conjunto, promoviendo una gobernanza responsable y adaptable. La discusión en torno a la apertura busca así equilibrar la promoción de un ecosistema abierto que incentive la colaboración y el avance tecnológico, con una regulación que proteja los derechos y la seguridad pública. En ese empeño, facilitar un diálogo informado entre diferentes actores, incluyendo gobiernos, la academia, la industria y la sociedad civil, resulta fundamental para establecer lineamientos que permitan aprovechar los beneficios del desarrollo de IA sin dejar de gestionar adecuadamente sus riesgos inherentes.
Para leer más ingrese a:
https://www.oecd.org/en/publications/ai-openness_02f73362-en.html