Analizando el mal uso del término Open Source en modelos de IA

¿Es realmente Open Source la IA actual?

El término Open Source se ha popularizado para describir modelos de inteligencia artificial que, en realidad, no cumplen con los principios fundamentales del software de código abierto. Esta confusión es importante porque afecta la percepción de transparencia y control que los usuarios creen tener sobre estos modelos.

¿Qué es Open Source?

Para entender mejor el problema, preguntémosle a ChatGPT qué es Open Source. Según la definición de la Open Source Initiative, un software de código abierto debe cumplir con ciertos requisitos como:

  • Libre redistribución
  • Acceso al código fuente
  • Permiso para crear trabajos derivados

La Wikipedia también define Open Source como un modelo de desarrollo de software basado en la disponibilidad del código fuente y la posibilidad de modificarlo y distribuirlo libremente.

Sin embargo, en el ámbito de la inteligencia artificial, los modelos que se etiquetan como Open Source rara vez cumplen con estos criterios.

Modelos de IA: ¿Qué debería ser verdaderamente abierto?

Para que un modelo de IA fuera realmente Open Source, debería proporcionar:

  1. Datos de entrenamiento completos.
  2. El algoritmo utilizado en el entrenamiento.
  3. El orden y método de entrenamiento con los datos.
  4. Ajustes posteriores, como el aprendizaje por refuerzo u otras técnicas de mejora.

Sólo con esta transparencia sería posible reconstruir el modelo desde cero y tener un mejor acercamiento a su comportamiento. Si no entender el modelo al menos podríamos estar seguros de que elementos han influido en su comportamiento.

Los modelos actuales y la falsa etiqueta de Open Source

La realidad es que los modelos más populares, como los de Meta, OpenAI, Mistral, y desde hace unos días los modelos de DeepSeek no cumplen estos requisitos. Son, en el mejor de los casos, modelos de pesos abiertos (The Verge). Esto significa que podemos descargar y ejecutar los modelos, pero sin acceso al proceso de entrenamiento completo.

Esta diferencia es crucial. Mientras que en el software tradicional Open Source se tiene acceso al código y se puede modificar libremente, en los modelos de IA actuales solo podemos modificar los pesos en función de las restricciones de licencia, pero no podemos reconstruir el modelo ni entender completamente cómo fue entrenado.

El problema de la explicabilidad

Además, los modelos de lenguaje tienen un problema adicional: no entendemos completamente por qué funcionan como lo hacen. No sabemos exactamente por qué un modelo predice una palabra en particular o responde de cierta manera. Este es el llamado problema de la explicabilidad (Red Hat).

Esta falta de comprensión hace que incluso si los modelos fueran totalmente abiertos, seguiríamos sin poder explicar con precisión su comportamiento.

Esta situación se ha vuelto ahora evidente con el reciente lanzamiento del modelo de IA chino DeepSeek. Numerosos usuarios han compartido en redes sociales cómo este modelo evita responder preguntas sobre temas que no son del agrado del gobierno chino. Por ejemplo, al solicitar información sobre los eventos de la Plaza de Tiananmén, DeepSeek se niega a proporcionar detalles. (El País).

Transparencia y control: ¿Realidad o marketing?

Cuando hablamos de Open Source, se da la impresión de que los usuarios y los ingenieros tienen total transparencia y control sobre el software. Sin embargo, con los modelos de pesos abiertos, aunque podamos ejecutarlos localmente, sigue sin haber un verdadero control porque:

  • No podemos replicar el modelo completo.
  • No sabemos cómo fueron entrenados.
  • No podemos auditar completamente su proceso de aprendizaje.

Por lo tanto, la imagen de transparencia que se asocia con el término Open Source en estos casos es engañosa.

Conclusión

Personalmente, prefiero los modelos de pesos abiertos a los privativos, ya que al menos permiten cierto grado de ajuste e implementación local. Sin embargo, la competencia entre modelos cerrados y modelos de pesos abiertos será dura, y es crucial que el público entienda que estos modelos, por mucho que se puedan descargar, no son realmente Open Source.

La falta de transparencia sigue siendo un problema, y es importante insistir en que, a menos que tengamos acceso a todos los elementos del proceso de entrenamiento, el término Open Source aplicado a estos modelos es, en el mejor de los casos, una exageración y, en el peor, una estrategia de marketing engañosa.