Encara és vigent l'argument de l'habitació xinesa de Searle?




Uno de los argumentos filosóficos más famosos del siglo XX es la “Habitación China” de John Searle (1980): imaginen a un hombre encerrado en una habitación que recibe preguntas en chino y, siguiendo un manual de reglas, devuelve respuestas perfectas en chino. No entiende ni una palabra. Ergo, ningún programa puede “comprender” nada por el mero hecho de manipular símbolos formales según reglas.

Pues bien, varios filósofos argumentan ahora que el argumento no se aplica a los LLMs, o al menos no de la manera que Searle pretendía. El argumento original se dirigía contra la manipulación formal de símbolos discretos, los ceros y unos del programa clásico. Pero los LLMs trabajan con representaciones vectoriales distribuidas: cada palabra se convierte en un punto en un espacio de cientos o miles de dimensiones, y las relaciones entre palabras se codifican como relaciones geométricas entre esos puntos. Eso cambia fundamentalmente la dinámica. Emma Borg (Universidad de Reading), en un paper publicado en Inquiry en 2025, argumenta que debemos ir más allá del marco Turing vs. Searle e investigar directamente qué ocurre “bajo el capó” de estos sistemas.

La pregunta ya no es si los LLMs “manipulan símbolos sin entender”: es qué tipo de representaciones construyen y si esas representaciones constituyen algo que merezca llamarse comprensión. La Habitación China no previó que el manual de reglas pudiera generar, por su propia dinámica, algo parecido a un mapa del mundo.

Daniel ArjonaSiete problemas filosóficos que no resolverán los charlatanes de la IA, El Arjonauta 08/04/2026

Comentaris

Entrades populars d'aquest blog

Percepció i selecció natural 2.

El derecho a mentir

Determinisme biològic i diferència de gènere.