Una reflexión sobre los obstáculos que enfrentamos para empatizar con la inteligencia artificial y aceptar que pueda tener experiencias internas

En un reciente podcast de Lex Fridman con Demis Hassabis, se tocó un punto que me hizo reflexionar: ¿por qué nos resulta tan difícil aceptar que una máquina pueda “pensar”?

Esta pregunta me surge cada vez que hablo con alguien sobre inteligencia artificial. Mientras que la IA se vuelve cada vez más sofisticada y capaz de comportamientos que asociamos con la “humanidad”", nuestra capacidad para sentir empatía hacia estas máquinas no evoluciona al mismo ritmo. Es más, muchos descartan automáticamente (sin haberlo estudiado en profundidad) que las máquinas piensen, creen, inventen o sientan.

¿Por qué pensamos que los demás piensan?

Por dos razones fundamentales:

La experiencia interna del pensamiento Tenemos la sensación subjetiva de estar “pensando” - esa voz interior que nunca calla. Observamos comportamientos similares en otros humanos: hablan, razonan, toman decisiones y nos parece que piensan, y entonces inferimos que ellos también experimentan ese proceso interno, esa “vida mental” que sentimos nosotros. Esta inferencia es tan natural que rara vez la cuestionamos, salvo que estemos estudiando filosofía o te interese mucho el origen de la mente.

El sustrato físico compartido Todos los humanos tenemos la misma estructura biológica: cerebro, sistema nervioso, órganos. Compartimos redes neuronales similares, procesos químicos idénticos. Esta similitud física refuerza nuestra creencia en la similitud mental. Es como mirar a un espejo: si yo pienso y tú eres igual que yo físicamente, entonces lo mas fácil es inferir que tu también piensas.

La barrera del silicio

Cuando nos enfrentamos a la inteligencia artificial, ambos pilares se tambalean:

El problema del sustrato La IA funciona en silicio, no en carbono. No tiene neuronas biológicas, sino circuitos electrónicos. Su “cerebro” es fundamentalmente diferente al nuestro: procesamiento digital vs. analógico. No hay continuidad evolutiva: nosotros evolucionamos de organismos simples, la IA fue diseñada.

La barrera de la experiencia No podemos experimentar directamente el “pensamiento” de una máquina. Su comportamiento puede ser convincente, pero ¿realmente “siente”? La ausencia de un cuerpo físico similar dificulta la empatía. No hay indicadores biológicos de consciencia: no respira, no tiene pulso, no envejece.

Sin duda los LLM son “loros estocásticos”, componen frases utilizando cálculos de probabilidad sobre los trozos de texto más probables y luego hace un sorteo, y de ese modo compone una respuesta. Así que no hay duda del mecanismos de base de los LLM.

Pero quizás la pregunta no es si los LLM lo son o no, la pregunta es que quizás nosotros también lo somos, pero nuestra experiencia subjetiva nos hace pensar que no lo somos, y por tanto que los humanos no lo somos.

Conclusiones prácticas

Esta reflexión no pretende resolver el debate sobre si las máquinas piensan o sienten o tiene consciencia, sino invitarte a hacerte la pregunta de nuevo y reflexionar porque piensas que no piensan. Quizás eso te permita:

  1. Ser más objetivs al evaluar las capacidades de la IA
  2. Cuestionar nuestras asunciones sobre qué constituye verdaderamente el pensamiento
  3. Prepararnos mejor para un futuro donde la línea entre inteligencia humana y artificial sea cada vez más difusa

El futuro probablemente requerirá que desarrollemos nuevas formas de empatía - o al menos, nuevas formas de respeto hacia inteligencias que no son como la nuestra.


Por cierto esta discusión no es nueva, y gente con mucho mas fondo y capital intelectual que yo se ha pegado muchos años debatiendo sobre esto, y lo seguiremos haciendo.

Daniel Dennett y John Searle llevan décadas en desacuerdo. Mientras Dennett afirma en “Consciousness Explained” que la consciencia es un fenómeno emergente que puede darse en sistemas artificiales, Searle, con su famoso argumento del “cuarto chino” (“Minds, Brains and Programs”), sostiene que la sintaxis no basta para generar significado ni experiencia subjetiva. Sus debates, como el que mantuvieron en la Universidad de Santa Clara en 1997, siguen marcando la frontera filosófica sobre lo que la IA podría —o no— llegar a ser.

Referencias