¿En qué se diferencian la inferencia y el aprendizaje de los modelos del lenguaje de los del cerebro?

En los últimos años, ha habido un sinfín de debates sobre cómo los modelos de lenguaje como los LLM (Large Language Models) se comparan con las capacidades humanas. ¿Hasta dónde llegan? ¿Qué pueden sustituir? Aunque estas preguntas son fascinantes, aquí quiero centrarme en una diferencia fundamental que a menudo se pasa por alto.

Esta diferencia tiene que ver con el momento en el que ocurre el aprendizaje. En los modelos de inteligencia artificial y en el cerebro humano, los procesos de aprendizaje e inferencia (usar lo aprendido para resolver problemas) funcionan de manera completamente distinta.

Los LLM no aprenden mientras generan respuestas

Cuando interactúas con un modelo como ChatGPT y parece recordar lo que has dicho antes, podrías pensar que está aprendiendo en tiempo real. Pero no es así. Los modelos de lenguaje solo “aprenden” durante la fase de entrenamiento.

En esta fase, el modelo ajusta sus parámetros —los pesos de su red neuronal— utilizando grandes cantidades de datos. Sin embargo, una vez completado el entrenamiento, los parámetros del modelo quedan fijos. Cuando el modelo pasa a la fase de inferencia, simplemente utiliza lo que ya ha aprendido para generar respuestas, pero no modifica su estructura interna ni “aprende” nada nuevo.

Lo que a menudo confunde es la memoria contextual que ciertas aplicaciones, como ChatGPT, utilizan. Estas herramientas pueden almacenar el historial de tu conversación y generar nuevos prompts que incluyan ese contexto. Por ejemplo, si pides un plan de marketing en cinco pasos y luego dices “cambia el segundo paso”, parece que el modelo recuerda y aprende de tus comentarios. En realidad, lo que hace es reformular la conversación previa en un nuevo prompt que incluye tus instrucciones y luego procesa ese input con el LLM.

El cerebro humano: aprendizaje e inferencia como un todo

El cerebro humano opera de manera distinta. Mientras resuelve problemas, genera ideas o responde preguntas, está también aprendiendo. Las conexiones neuronales cambian constantemente: los pesos sinápticos se ajustan, la mielina se refuerza o debilita, y las redes neuronales se reorganizan. En otras palabras, inferencia y aprendizaje son procesos entrelazados en el cerebro humano.

Esto implica que cada experiencia que vivimos, incluso mientras pensamos o reflexionamos, está modificando nuestras estructuras internas. No necesitamos una fase separada para aprender: lo hacemos de forma continua.

Una diferencia crucial

Esta distinción entre los LLM y el cerebro humano es, a mi juicio, una de las más importantes. Los LLM operan en compartimentos separados: primero aprenden, luego usan lo aprendido. El cerebro humano, en cambio, nunca deja de aprender mientras opera.

Es una diferencia fundamental que no solo explica por qué los modelos actuales no son “inteligencia humana”, sino como dice Geoffrey Hinton son “inteligencia digital” y quizás también explica por qué la inteligencia humana sigue siendo, de momento, única.