Pot pensar una màquina?
¿Puede pensar una máquina? ¿Puede una máquina tener pensamientos
conscientes en el mismo y preciso sentido en que los tenemos usted y yo?
Si entendemos por máquina un sistema material capaz de desempeñar ciertas
funciones (¿y qué otra cosa podría si no significar?), resulta que los
humanos somos máquinas de una clase biológica especial y como los humanos
piensan, por lo tanto es cierto que hay máquinas capaces de pensar. Y
quién sabe si será posible producir máquinas pensantes que se valgan de
materiales totalmente distintos, máquinas que utilicen -es un decir-
microcircuitos de silicio o válvulas termoiónicas. Tal vez se demuestre
que ello es imposible pero ciertamente eso es hoy por hoy una cosa que no
sabemos.
Sin embargo, en los últimos decenios la cuestión de si las máquinas
podrían pensar ha recibido una interpretación enteramente distinta. La
cuestión planteada en su lugar es: ¿Podría una máquina pensar justamente
en virtud de que ejecuta un programa informático? ¿Es el programa en sí
mismo constitutivo de pensamiento? Se trata de una cuestión completamente
diferente, porque no se ocupa de las propiedades físicas causales de
sistemas materiales actuales o potenciales, sino que atañe por el
contrario a las propiedades abstractas computacionales, de programas
informáticos formales que podrían realizarse en cualquier clase de
sustancia, sin otra condición que la que ésta sea capaz de ejecutar el
programa.
No son pocos los investigadores en inteligencia artificial (IA)
convencidos de que esta segunda pregunta tiene una respuesta afirmativa,
es decir, creen que al diseñar los programas adecuados y dotándolos de los
oportunos ingresos y salidas están literalmente creando mentes. Creen
además, disponer de un criterio científico para determinar si han
triunfado o fracasado en tal empresa, a saber el test de Turing ideado por
Alan M. Turing, padre fundador de la inteligencia artificial. El test de
Turing en la forma en que actualmente se comprende, consiste sencillamente
en esto: si un ordenador puede actuar de modo que un experto sea incapaz
de distinguir la actuación del ordenador de la de un humano provisto de
cierta dificultad cognitiva -la capacidad de sumar o de comprender el
idioma chino, por ejemplo, entonces el ordenador posee también esa
dificultad. El objetivo consiste pues en diseñar programas que simulen de
tal forma la cognición humana y que logren superar la prueba de Turing.
Más aun, tal programa no sería un mero modelo de la mente, sería una mente
en sentido literal en el mismo sentido en que una mente humana lo es.
La IA fuerte es una tesis insólita en las teorías de la mente en dos
aspectos; cuando menos puede ser formulada claramente y admite una
refutación sencilla y decisiva, ésta es tal que cualquier persona puede
juzgarla por sí misma. Reza como sigue: tomemos un idioma que no
comprendemos, en mi caso tal idioma puede ser el chino. Por lo que a mi se
refiere, un escrito en chino me parece una serie de garabatos
ininteligibles. Supongamos ahora que me instalan en una habitación que
contiene cestas repletas de símbolos chinos. Supongamos también que me
proporcionan un libro de instrucciones en español con reglas que estipulan
cómo han de emparejarse unos símbolos chinos con otros. Las reglas
permiten reconocer los símbolos puramente por su forma y no requieren que
yo los comprenda. Las reglas podrían estipular cosas como: "Tome un signo
gargarabato de la cesta número uno y colóquelo al lado de un signo
gargarabis tomado de la cesta número dos."
Imaginemos que personas situadas fuera de la habitación y que sí
comprenden el chino, me van entregando pequeños grupos de símbolos, y que
en respuesta yo manipulo los símbolos de acuerdo con las reglas del libro
y les entrego pequeños grupos de símbolos. Ahora, el libro de
instrucciones es el programa informático, las personas que lo escribieron
son los programadores y yo soy el ordenador. Los cestos llenos de símbolos
constituyen la base de datos, los pequeños grupos que me son entregados
son preguntas y los grupos que yo entrego, las respuestas.
Supongamos ahora que el libro de instrucciones esté escrito de modo que
mis respuestas a las preguntas resulten indistinguibles de las de un chino
nativo. Por ejemplo, la gente del exterior podría entregarme ciertos
símbolos desconocidos que significan: "¿Cuál es su color favorito?", y que
tras consultar las instrucciones del libro yo devuelvo símbolos, también
desconocidos por mí, que significan: "Mi favorito es el azul, pero también
me gusto mucho el verde." Estoy superando el test de Turing en lo que a
comprender el chino concierne. Y al mismo tiempo ignoro totalmente el
chino. Y en el sistema que estoy describiendo no hay forma de que yo
llegue a comprender el chino, pues no hay forma de que yo pueda aprender
los significados de los símbolos. Estoy manipulando símbolos, lo mismo que
un ordenador pero sin adscribir significado a los símbolos.
El propósito de este experimento mental es el siguiente: si yo no
comprendo el chino basándome solamente en el funcionamiento de un programa
informático, entonces tampoco lo comprenderá ningún ordenador digital. Los
ordenadores digitales se limitan a manipular símbolos de acuerdo con las
reglas del programa.
Lo dicho: para el chino vale igual que para otras formas de cognición.
La mera manipulación de símbolos no basta por sí misma para garantizar la
cognición, la percepción, la comprensión, el pensamiento, y así
sucesivamente. Y dado que los ordenadores, en su cualidad de tales, son
dispositivos de manipulación de símbolos, la mera ejecución del programa
no basta para garantizar la cognición.
John R. Searle, Un debate sobre inteligencia artificial: ¿Es la mente un programa informático?, Investigación y Ciencia, Temas, Abril/Junio 2012, nº 68
John R. Searle, Un debate sobre inteligencia artificial: ¿Es la mente un programa informático?, Investigación y Ciencia, Temas, Abril/Junio 2012, nº 68
Comentaris