El test de Turing i l'habitació xinesa de Searle.

 



El Test de Turing y la Habitación China de John Searle han sido comentados en entradas anteriores de este blog. Esta entrada trata de por qué el argumento de la Habitación China de Searle es una presentación insatisfactoria de una seria objeción al Test de Turing, y por extensión a la Teoría Computacional de la Mente. 

Recordamos brevemente el argumento de Searle:
Tenemos un operador humano sin ningún conocimiento del lenguaje chino dentro de una habitación. El operador recibe a través de una ventanilla de entrada hojas de papel escritas en chino. El operador sigue al dedillo un libro de instrucciones que le indica el texto que debe escribir a partir del texto recibido. El operador desliza la hoja de papel con el texto resultante por la ventanilla de salida, y se repite el proceso.
Fuera de la habitación hay una persona, el «juez» (que podríamos llamar también el «intérprete») que, Searle da por supuesto, está convencida de que está conversando con otra persona china dentro de la habitación. Sin embargo, la persona dentro de la habitación no entiende chino, sólo produce símbolos a partir de símbolos, según le indican las instrucciones del libro. 

Searle establece la siguiente analogía: una computadora es como el operador dentro de la habitación. Sigue un libro de instrucciones, un programa. No entiende el significado de los símbolos. Solamente manipula sintaxis. Por lo tanto, la manipulación sintáctica de símbolos no es suficiente para explicar el entendimiento del significado de los mismos. Más llanamente: si una computadora pasa el Test de Turing de chino, no tiene por qué saber realmente de lo que está hablando. 

Antes de continuar es preciso aclarar algunos aspectos importantes:
  • En su argumento, Searle usa la palabra «semántica» en vez de «entendimiento». También dice que las mentes humanas «tienen semántica» y «contenidos mentales», que los cerebros tienen «poderes causales», etc. No estoy interesado en esa terminología. Entiendo que Searle la usa de forma intuitiva, y por tanto yo también deseo usar «entendimiento» de forma intuitiva. Ciertamente sería idóneo poseer un significado preciso de «entendimiento». La cuestión es si la manipulación de símbolos sintáctica es suficiente como significado de dicha palabra. Al introducir su terminología Searle está intentando dar una explicación alternativa pero insatisfactoria al entendimiento. 
  • El problema de los argumentos ideales es que introducen ruido, oportunidades para debates interminables sobre terminología, sobre las inexactitudes inconsecuentes, o sobre las particularidades del escenario. ¿Es el libro de instrucciones una metáfora adecuada de un programa? ¿Cómo puede elegirse una única respuesta de entre las infinitas posibles? ¿Cómo hace el operador para encontrar la respuesta? ¿Qué significa «significado»? ¿Son «semántica» y «significado» la misa idea? En esta entrada no ahondaré en estos aspectos que, como veremos, son irrelevantes.
  • Hay una objeción biológica al argumento de Searle que atribuye importancia al medio en el que se forman los símbolos. Pero el medio es irrelevante. Los símbolos pueden ser garabatos en papel, caldos moleculares, patrones de bits en la memoria de una computadora, etc. Se trata de una noción de símbolo bastante concreta: algo que el juez es capaz de interpretar como chino.
  • Hay una objeción de sistemas mucho más interesante que dice que el operador no entiende chino porque el entendimiento ocurre en el libro, o más precisamente, en la ejecución de las reglas del libro por el operador. La respuesta de Searle a esta objeción es decepcionante: «aunque el operador memorice el contenido del libro, sigue sin entender chino». Ciertamente, pero esa no es la cuestión. Los programas se almacenan en las memorias de las computadoras. La cuestión es si el programa (en ejecución) entiende chino. Las computadoras son diseñadas para ejecutar programas, una tarea que no requiere entendimiento de chino, más bien (y afortunadamente) no requiere entendimiento de nada. Técnicamente, la computadora es un actor irrelevante. (La idea de Sistema Formal Automático [2], un sistema formal de reglas que ejecuta las reglas por sí mismo y está construido en soporte físico, es quizás un concepto más preciso.) Podemos decir, por extensión o analogía, que una computadora entiende chino, pero lo que realmente decimos es que la computadora ejecuta un programa que entiende chino. Basta con que Searle responda a esta objeción diciendo que la ejecución de reglas por el operador sigue sin explicar el entendimiento del chino.
  • Curiosamente ambas respuestas presuponen que el intérprete es convencido. Pero la afirmación «si un programa convence a un juez de que entiende chino entonces debemos concluir que entiende chino» es una implicación. La premisa no ha sido realizada. Además, el entendimiento no tiene que ser una consecuencia inexorable de un comportamiento adecuado. Basten como contraejemplo los innumerables trabajos en Inteligencia Artifical «suave» (soft AI). Muchos propietarios del perrito robot AIBO de Sony le atribuyen capacidades que los fabricantes niegan categoricamente. Existen programas que realizan tareas mejor que los humanos pero que no entienden dichas tareas.
He aquí una versión más sencilla del argumento de la Habitación China:

Una calculadora no entiende el concepto de suma.
Calculadora-china 
Según la objeción de sistemas, el entendimiento de la suma se encuentra en las reglas de la suma. La calculadora pasa de sobra el Test de Turing Aritmético, convence al juez de que entiende el concepto de suma, pues sabe sumar. Searle nos dice que el entendimiento no se encuentra en las reglas de la suma. Sólo son reglas que permiten a la calculadora comportarse como si las entendiera. 

Algo parece faltar en las reglas de la suma y en las hipotéticas reglas del arte de conversar en chino. Si bien la escala es diferente, ambas se construyen utilizando las mismas piezas de acuerdo a la Tesis Church-Turing.
Dejando a un lado el factor importante de la decibilidad y la computabilidad, cualquier programador sabe que sus programas no entienden lo que hacen. Una cosa es atribuir entendimiento a los programas como convencíon de lenguaje: «el programa elige una frase», etc. Otra diferente es reducir el entendimiento a la ejecución del programa: «elegir una frase es ejecutar el programa de elección de frases». 

Para entender el entendimiento debemos mirar dentro de la habitación. No basta con atribuciones operacionales. No debería ser necesario justificar ésto invocando un super-libro de reglas de chino. Eso es ciencia ficción. Como no entendemos cómo se puede tener entendimiento en un mundo sintáctico, decidimos que la sintaxis es todo lo que hay. Como los conductistas que afirman que sólo existe el comportamiento. La Teoría Computacional de la Mente parece razonable. Entender chino debe explicarse según el funcionamiento del cerebro, donde observamos procesos electro-químicos, organizaciones celulares, y diferentes niveles de abstracción. El cerebro se parece a una computadora. Se «parece». ¿Pero cómo se explica el entendimiento? ¿Y la conciencia? 

A pesar de lo que se venda, nadie sabe cómo. La Teoría Computacional de la Mente no es una teoría. Es una hipótesis. Razonable, con evidencia favorable, pero hipótesis. 

Existen programas capaces de derrotar a grandes maestros en el ajedrez. Esto no significa que el cerebro de un gran maestro cuando juega al ajedrez es uno de esos programas. Lo llamativo es que el gran maestro puede competir con uno de esos programas, utilizando la misma «máquina» que utiliza para lavarse los dientes. Es razonable suponer una analogía entre la máquina del gran maestro y el programa. Pero también es una duda razonable que quizás no se trata de un problema de escala y que hay muchos factores que todavía se nos escapan. (Esta falta de conocimiento no justifica las otras cajas negras causales como el alma, que carecen de mucha más evidencia favorable.) 

Turing fue práctico: podemos utilizar un test operacional para atribuir X a una máquina, pues ahora mismo no sabemos cómo atribuir X de otra forma que operacionalmente. Searle nos recuerda que una atribución basada en un test operacional es sólo una atribución, no una caracterización. John tiene razón que para entender X debemos mirar dentro de la habitación. 

Pablo Nogueira, John tiene razón, El Año Turing, 20/06/2013
Pablo Nogueira es profesor ayudante doctor de la Universidad Politécnica de Madrid
-----------------------
[1] Searle, J. (1980). Mind, brains and programs, Behavioural and Brain Sciences 3, pp. 417-424.
[2] Haugueland, J. (1985). Artificial Intelligence: The Very Idea. MIT Press.

Comentaris

Entrades populars d'aquest blog

Percepció i selecció natural 2.

Gonçal, un cafè sisplau

Què és el conatus de Spinoza?