Entenen els LLMs (Models de LLenguatge Gran)?




Es el gran debate filosófico de la década y conviene entender bien qué se discute. Cuando le pedimos a ChatGPT que nos explique la crisis del 29 y recibimos una respuesta impecable, ¿ha entendido algo o se ha limitado a calcular qué palabra es estadísticamente más probable después de la anterior?

Hablemos de loros. La posición escéptica la fijó un paper célebre de 2021 firmado por Emily Bender (lingüista computacional de la Universidad de Washington), Timnit Gebru, Angelina McMillan-Major y Margaret Mitchell: “On the Dangers of Stochastic Parrots” (presentado en la conferencia FAccT). El título lo dice todo: los LLMs son “loros estocásticos” que “hilvanan secuencias de formas lingüísticas según información probabilística sobre cómo se combinan, pero sin referencia alguna al significado”. El paper fue de los primeros en advertir con razón sobre costes ambientales y sesgos en datos de entrenamiento, pero su caracterización filosófica ha envejecido mal. Bender es lingüista, no filósofa, y el paper hace afirmaciones fuertes sobre significado y comprensión sin dialogar en profundidad con la filosofía del lenguaje. Su influencia ha sido más política que filosófica.

La respuesta más rigurosa viene de dos filósofos que sí combinan formación técnica y filosófica. Raphaël Millière (ahora en Oxford, antes en Columbia y Macquarie) y Cameron Buckner (Universidad de Houston, autor de From Deep Learning to Rational Machines, OUP, 2024) publicaron en 2024 los dos papers más importantes sobre el tema: “A Philosophical Introduction to Language Models”, partes I y II. Son a la vez una introducción técnica para filósofos y un análisis que conecta los LLMs con debates clásicos sobre adquisición del lenguaje y fundamentación semántica. Su contribución más original es identificar lo que llaman la “falacia deflacionaria: descartar que los LLMs comprendan simplemente porque sus operaciones consisten en cálculos estadísticos. Lo comparan con decir que un piano no puede producir armonía porque son solo martillos golpeando cuerdas.

Millière además publicó con Dimitri Coelho Mollo “The Vector Grounding Problem”(Philosophy and the Mind Sciences, 2026), donde reformulan el clásico problema de la fundamentación simbólica (¿cómo conectan los símbolos con el mundo?) para la era de las representaciones vectoriales. Distinguen cinco tipos de fundamentación, argumentan que solo la referencial es esencial y llegan a una conclusión sorprendente: la multimodalidad y la corporalidad (que el modelo tenga ojos y manos) no son ni necesarias ni suficientes para lograrla.

Melanie Mitchell, del Santa Fe Institute, quizás la voz más equilibrada de la discusión, propuso con David Krakauer en “The debate over understanding in AI’s large language models” (PNAS 2023) que necesitamos una “ciencia extendida de la inteligencia” capaz de reconocer “modos distintos de comprensión”. La pregunta binaria “¿entienden o no?” está mal planteada. Lo que necesitamos es investigar qué representan internamente estos sistemas, y eso empieza a ser posible gracias a la interpretabilidad mecanicista, que es en sí misma un nuevo campo filosófico.

Daniel Arjona, Siete problemas filosóficos que no resolverán los charlatanes de la IA, El Arjonauta 08/04/2026

Comentaris

Entrades populars d'aquest blog

Percepció i selecció natural 2.

El derecho a mentir

Determinisme biològic i diferència de gènere.