Debates y redefiniciones del open source aplicado a la inteligencia artificial generativa

Aceptada

La presentación analiza las transformaciones del concepto de código abierto en el contexto de la inteligencia artificial generativa, abordando sus dimensiones técnicas, éticas y políticas. Se examinan los debates actuales sobre apertura, transparencia y gobernanza, así como las tensiones entre innovación, riesgos y concentración de poder. Finalmente, se reflexiona sobre los desafíos para construir modelos de IA más democráticos, responsables y sostenibles.


Tipo: Talk / Charla

Nivel: Principiante

Disertantes: Agustin Zanotti

Biografiá del Disertante: Sociólogo e investigador del CONICET. Docente en la Universidad Nacional de Villa María. Coordina una diplomatura en inteligencia artificial y trabaja en temas de cultura libre, conocimiento abierto e inclusión digital. Es Wikimedista desde 2016.

Horario: 16:00 - 17:00 - 25/04/2026

Sala: Aula 1

Etiquetas/Tags: ia open source

Descripción completa

La inteligencia artificial generativa o IAG se ha convertido en una tecnología transversal. No solo crea texto, imágenes o sonido, sino que redefine cómo producimos conocimiento y creatividad. En este escenario, el concepto de open source cobra nueva relevancia: ¿qué significa abrir una tecnología cuando depende de datos, algoritmos y recursos de cómputo distribuidos globalmente? Para comprender el debate actual es necesario volver a las bases del movimiento de software libre. Este surgió con la idea de garantizar cuatro libertades fundamentales: usar, estudiar, modificar y redistribuir el software. A fines de los años noventa, el término open source amplió este enfoque hacia la eficiencia y la innovación colaborativa. Estos principios se convirtieron en pilares del desarrollo tecnológico global. En el campo de la inteligencia artificial, la apertura comenzó con librerías como TensorFlow o PyTorch, pero cobró una nueva dimensión con los modelos generativos. Hoy existen múltiples proyectos abiertos, impulsados tanto por grandes corporaciones como por comunidades de investigación. Sin embargo, muchos de estos modelos son solo parcialmente abiertos: a menudo se libera el código, pero no los datos de entrenamiento ni los pesos del modelo. Aquí aparece una diferencia central respecto del software tradicional. Mientras que en el software libre clásico el código define completamente el comportamiento del programa, en los sistemas de IA generativa el funcionamiento depende también de los datos y de los parámetros aprendidos durante el entrenamiento. Esto implica que abrir el código ya no garantiza transparencia ni reproducibilidad. La apertura debe pensarse, entonces, como un gradiente que involucra múltiples componentes. En los últimos años surgieron diversos intentos por redefinir el concepto de open source en este contexto. La Open Source Initiative, por ejemplo, propuso en 2024 una definición de IA abierta que incluye no solo el código, sino también los parámetros del modelo y la información sobre los datos. Otras organizaciones enfatizan además criterios éticos y de no daño. En paralelo, la investigación académica propone pensar la apertura como un continuo, con distintos niveles según el acceso a los diferentes componentes. Estos cambios se inscriben en debates más amplios sobre los beneficios y riesgos de la apertura. Por un lado, el open source puede favorecer la transparencia, la innovación y la democratización del acceso a la tecnología. Por otro, también puede facilitar usos maliciosos, como la generación de desinformación. Además, algunas empresas recurren a estrategias de “falsa apertura”, presentando como abiertos modelos que en realidad mantienen elementos clave cerrados. La cuestión de la apertura también tiene implicancias económicas y geopolíticas. Si bien puede estimular la competencia y la innovación, el acceso a recursos computacionales sigue siendo una barrera significativa. Esto genera desigualdades entre actores y regiones. En América Latina, por ejemplo, iniciativas como LatamGPT buscan desarrollar modelos propios que respondan a necesidades locales y promuevan una mayor soberanía tecnológica. En síntesis, el concepto de código abierto está atravesando un proceso de transformación profunda. En el caso de la inteligencia artificial, la apertura no puede limitarse al acceso al código, sino que debe incluir también los datos, los parámetros y las condiciones de uso. Las tensiones entre apertura y control, innovación y seguridad, configuran un escenario complejo que plantea nuevos desafíos. El horizonte, en este sentido, es construir formas de desarrollo tecnológico más transparentes, responsables y orientadas al interés público.