El test de Turing i l'habitació xinesa de Searle.
El Test de Turing y la Habitación China de John Searle han sido comentados en entradas anteriores de este blog. Esta entrada trata de por qué el argumento de la Habitación China de Searle es una presentación insatisfactoria de una seria objeción al Test de Turing, y por extensión a la Teoría Computacional de la Mente.
Recordamos brevemente el
argumento de Searle:
Tenemos un operador humano sin ningún conocimiento del lenguaje chino dentro de una habitación. El operador recibe a través de una ventanilla de entrada hojas de papel escritas en chino. El operador sigue al dedillo un libro de instrucciones que le indica el texto que debe escribir a partir del texto recibido. El operador desliza la hoja de papel con el texto resultante por la ventanilla de salida, y se repite el proceso.
Fuera de la habitación
hay una persona, el «juez» (que podríamos llamar también el «intérprete») que,
Searle da por supuesto, está convencida de que está conversando con otra
persona china dentro de la habitación. Sin embargo, la persona dentro de la
habitación no entiende chino, sólo
produce símbolos a partir de símbolos, según le indican las instrucciones del
libro.
Searle establece la
siguiente analogía: una computadora
es como el operador dentro de la habitación. Sigue un libro de instrucciones,
un programa. No entiende el significado de los símbolos. Solamente
manipula sintaxis. Por lo tanto, la manipulación sintáctica de símbolos no es
suficiente para explicar el entendimiento del significado de los mismos.
Más llanamente: si una computadora pasa el Test de Turing de chino, no tiene
por qué saber realmente de lo que está hablando.
Antes de continuar es
preciso aclarar algunos aspectos importantes:
- En su argumento, Searle usa la palabra «semántica» en vez de «entendimiento». También dice que las mentes humanas «tienen semántica» y «contenidos mentales», que los cerebros tienen «poderes causales», etc. No estoy interesado en esa terminología. Entiendo que Searle la usa de forma intuitiva, y por tanto yo también deseo usar «entendimiento» de forma intuitiva. Ciertamente sería idóneo poseer un significado preciso de «entendimiento». La cuestión es si la manipulación de símbolos sintáctica es suficiente como significado de dicha palabra. Al introducir su terminología Searle está intentando dar una explicación alternativa pero insatisfactoria al entendimiento.
- El problema de los argumentos ideales es que introducen ruido, oportunidades para debates interminables sobre terminología, sobre las inexactitudes inconsecuentes, o sobre las particularidades del escenario. ¿Es el libro de instrucciones una metáfora adecuada de un programa? ¿Cómo puede elegirse una única respuesta de entre las infinitas posibles? ¿Cómo hace el operador para encontrar la respuesta? ¿Qué significa «significado»? ¿Son «semántica» y «significado» la misa idea? En esta entrada no ahondaré en estos aspectos que, como veremos, son irrelevantes.
- Hay una objeción biológica al argumento de Searle que atribuye importancia al medio en el que se forman los símbolos. Pero el medio es irrelevante. Los símbolos pueden ser garabatos en papel, caldos moleculares, patrones de bits en la memoria de una computadora, etc. Se trata de una noción de símbolo bastante concreta: algo que el juez es capaz de interpretar como chino.
- Hay una objeción de sistemas mucho más interesante que dice que el operador no entiende chino porque el entendimiento ocurre en el libro, o más precisamente, en la ejecución de las reglas del libro por el operador. La respuesta de Searle a esta objeción es decepcionante: «aunque el operador memorice el contenido del libro, sigue sin entender chino». Ciertamente, pero esa no es la cuestión. Los programas se almacenan en las memorias de las computadoras. La cuestión es si el programa (en ejecución) entiende chino. Las computadoras son diseñadas para ejecutar programas, una tarea que no requiere entendimiento de chino, más bien (y afortunadamente) no requiere entendimiento de nada. Técnicamente, la computadora es un actor irrelevante. (La idea de Sistema Formal Automático [2], un sistema formal de reglas que ejecuta las reglas por sí mismo y está construido en soporte físico, es quizás un concepto más preciso.) Podemos decir, por extensión o analogía, que una computadora entiende chino, pero lo que realmente decimos es que la computadora ejecuta un programa que entiende chino. Basta con que Searle responda a esta objeción diciendo que la ejecución de reglas por el operador sigue sin explicar el entendimiento del chino.
- Curiosamente ambas respuestas presuponen que el intérprete es convencido. Pero la afirmación «si un programa convence a un juez de que entiende chino entonces debemos concluir que entiende chino» es una implicación. La premisa no ha sido realizada. Además, el entendimiento no tiene que ser una consecuencia inexorable de un comportamiento adecuado. Basten como contraejemplo los innumerables trabajos en Inteligencia Artifical «suave» (soft AI). Muchos propietarios del perrito robot AIBO de Sony le atribuyen capacidades que los fabricantes niegan categoricamente. Existen programas que realizan tareas mejor que los humanos pero que no entienden dichas tareas.
He aquí una versión más
sencilla del argumento de la Habitación China:
Una
calculadora no entiende el concepto de suma.
Según la objeción de sistemas, el entendimiento de la suma se encuentra en las reglas de la suma. La
calculadora pasa de sobra el Test de Turing Aritmético, convence al juez de que
entiende el concepto de suma, pues sabe sumar. Searle nos dice que el
entendimiento no se encuentra en las reglas de la suma. Sólo son reglas que
permiten a la calculadora comportarse como si las entendiera.
Algo parece faltar en
las reglas de la suma y en las hipotéticas reglas del arte de conversar en chino.
Si bien la escala es diferente, ambas se construyen utilizando las mismas
piezas de acuerdo a la Tesis Church-Turing.
Dejando a un lado el
factor importante de la decibilidad y la computabilidad, cualquier programador
sabe que sus programas no entienden lo que hacen. Una cosa es atribuir
entendimiento a los programas como convencíon de lenguaje: «el programa elige
una frase», etc. Otra diferente es reducir el entendimiento a la ejecución del
programa: «elegir una frase es ejecutar el programa de elección de frases».
Para entender el
entendimiento debemos mirar dentro de la habitación. No basta con atribuciones
operacionales. No debería ser necesario justificar ésto invocando un
super-libro de reglas de chino. Eso es ciencia ficción. Como no entendemos cómo
se puede tener entendimiento en un mundo sintáctico, decidimos que la sintaxis
es todo lo que hay. Como los conductistas que afirman que sólo existe el
comportamiento. La Teoría Computacional de la Mente parece razonable. Entender
chino debe explicarse según el funcionamiento del cerebro, donde observamos
procesos electro-químicos, organizaciones celulares, y diferentes niveles de
abstracción. El cerebro se parece a una computadora. Se «parece». ¿Pero cómo se
explica el entendimiento? ¿Y la conciencia?
A pesar de lo que se
venda, nadie sabe cómo. La Teoría Computacional de la Mente no es una teoría. Es una hipótesis.
Razonable, con evidencia favorable, pero hipótesis.
Existen programas
capaces de derrotar a grandes maestros en el ajedrez. Esto no significa que el
cerebro de un gran maestro cuando juega al ajedrez es uno de esos programas. Lo
llamativo es que el gran maestro puede competir con uno de esos programas,
utilizando la misma «máquina» que utiliza para lavarse los dientes. Es
razonable suponer una analogía entre la máquina del gran maestro y el programa.
Pero también es una duda razonable que quizás no se trata de un problema de
escala y que hay muchos factores que todavía se nos escapan. (Esta falta de
conocimiento no justifica las otras cajas negras causales como el alma, que
carecen de mucha más evidencia favorable.)
Turing fue práctico:
podemos utilizar un test operacional para atribuir X a una máquina, pues ahora
mismo no sabemos cómo atribuir X de otra forma que operacionalmente. Searle nos
recuerda que una atribución basada en un test operacional es sólo una
atribución, no una caracterización. John tiene razón que para entender X
debemos mirar dentro de la habitación.
Pablo Nogueira, John tiene razón, El Año Turing, 20/06/2013
Pablo Nogueira es profesor ayudante doctor de la
Universidad Politécnica de Madrid
-----------------------
[1] Searle, J. (1980). Mind, brains and programs, Behavioural and Brain Sciences 3, pp. 417-424.
[2] Haugueland, J. (1985). Artificial
Intelligence: The Very Idea. MIT Press.
Comentaris