Existeix realment la Intel.ligència Artificial?

En un artículo anterior en este mismo blog (ver aquí) Simone Santini abordó el tema de la prueba de Turing, que en su día se propuso como criterio que algún día podría ser útil para decidir si una máquina de cómputo puede o no ser tan inteligente como el hombre. En una de las diversas formas en que ha sido expresada, la prueba de Turing viene a decir esencialmente que: si la máquina llegara a ser capaz de engañar a los seres humanos, haciéndose pasar por humana, con la misma facilidad con que un ser humano puede engañar a otro, habría que considerarla inteligente.

Jhon Searle
 
El término inteligencia artificial fue inventado en 1956 por John McCarthy para dar nombre al campo de la informática que se dedica al estudio y al diseño de máquinas inteligentes. Algunos resultados preliminares prometedores en este campo (la demostración de teoremas matemáticos sencillos, así como programas capaces de jugar a juegos tradicionalmente considerados inteligentes, como las damas), llevaron a los investigadores de finales de los años cincuenta a lanzar las campanas al vuelo y a predecir que, en solo diez años, sería posible construir programas capaces de ganar al campeón del mundo de ajedrez, y resolver de forma aceptable el problema de la traducción automática de un idioma a otro.

Pasaron los diez años y nada de eso ocurrió. El ajedrez resultó ser un juego mucho más complicado que las damas. En cuanto a la traducción automática, la ambigüedad sintáctica y semántica de las lenguas humanas, que además es distinta en cada una de ellas, hace casi imposible realizar una traducción perfecta sin disponer de una imagen global del mundo que las máquinas no poseen. Basta pensar en frases como estas:
  • Frases con ambigüedad sintáctica: Pasaré solo este verano aquí. No pude estudiar derecho.
  • Frases con ambigüedad semántica (doble sentido): Nos vemos mañana en el banco. ¡Pare la mula!
El fracaso de las predicciones provocó el desánimo de los investigadores en inteligencia artificial, muchos de los cuales se dedicaron a otras cosas. Sin embargo, aunque con altibajos, y no siempre con resultados completamente satisfactorios, los avances continuaron llegando en un goteo continuo: sistemas expertos, redes neuronales artificiales, algoritmos genéticos... En 1997, 30 años después de lo previsto, un ordenador consiguió por fin vencer por primera vez al campeón del mundo de ajedrez (dejando aparte la cuestión de si el programa que lo consiguió puede realmente considerarse inteligente). Existen ya sistemas razonablemente buenos de traducción automática, aunque todavía es preciso que un ser humano las repase antes de utilizarlas, pues contienen demasiados errores. También ha avanzado mucho la conducción automática de vehículos (coches y aviones).

Entretanto, la prueba de Turing sigue siendo inabordable para las máquinas. Cuando se dialoga con una de ellas, no se tarda mucho en descubrir que no estamos hablando con un ser humano, lo que quiere decir que no consigue engañarnos. Pero supongamos que algún programa, funcionando en una computadora, fuese capaz de conseguirlo en un futuro más o menos inmediato. ¿Podríamos asegurar que las máquinas habrían llegado a ser tan inteligentes como nosotros? ¿Es suficiente la prueba de Turing?

En 1980, el filósofo John Searle contestó negativamente a esta pregunta, y para demostrarlo propuso una nueva prueba: la habitación china. Veamos en qué consiste:
  1. Supongamos que disponemos de un programa de ordenador que es capaz de pasar satisfactoriamente la prueba de Turing dialogando con una mujer china (por ejemplo). En la conversación, tanto la mujer como el ordenador se expresan en chino; es decir, utilizan caracteres chinos para comunicarse por escrito a través de un teletipo. El ordenador, que está encerrado en una habitación para que la mujer no lo vea, lo hace tan bien que es capaz de engañarla, por lo que la mujer creerá estar dialogando con un ser humano que conoce perfectamente la lengua china.
  2. Ahora Searle propone sacar de la habitación al ordenador, y en su lugar se coloca él mismo, que no sabe chino, aunque iría provisto de una descripción comprensible del programa que utilizaba la computadora para dialogar con la mujer. En principio, utilizando ese programa, Searle sería capaz de dialogar con ella en su propia lengua tan bien como lo hacía el ordenador. Cada vez que recibiera un texto escrito en chino, aplicaría las reglas y escribiría los signos correspondientes a la respuesta que habría dado el ordenador.
  3. Pero en el caso de Searle tenemos un dato adicional: él sabe que no sabe chino, y por lo tanto no se ha enterado de una palabra de la conversación que ha tenido con la mujer, aunque esa conversación haya sido coherente y capaz de engañarla, haciéndola pensar que estuvo dialogando con un ser humano que conoce la lengua china.
  4. La cuestión clave, por lo tanto, es la siguiente: ¿entiende el ordenador la conversación que ha mantenido con la mujer? Y si no la entiende, como es de suponer, pues su actuación ha sido idéntica a la de Searle, ¿es consciente de que no la entiende, como Searle sí lo es?
Luego no basta que un ordenador sea capaz de pasar la prueba de Turing para que podamos considerarlo tan inteligente como nosotros. Hacen falta dos cosas más: que el ordenador comprenda lo que escribe, y que sea consciente de la situación. Mientras eso no ocurra, no podremos hablar estrictamente de inteligencia artificial.

Searle propuso distinguir dos tipos de inteligencia artificial:
  • Inteligencia artificial débil: la que podría alcanzar una máquina que pasara satisfactoriamente la prueba de Turing.
  • Inteligencia artificial fuerte: la que tendría una máquina que tuviera una mente semejante a la humana, capaz de comprender y de saber si comprende o no comprende.
El problema es importante, porque introduce cuestiones para las que no tenemos respuesta, como si la consciencia puede programarse, la dualidad mente-cuerpo, cómo nos identificamos con los demás, o qué significa comprender un texto escrito o cualquier otra representación simbólica.

Manuel Alfonseca, ¿Basta la prueba de Turing para definir la 'inteligencia artificial?, El año de Turing, 24/01/2013

Comentaris

Entrades populars d'aquest blog

Percepció i selecció natural 2.

Gonçal, un cafè sisplau

"¡¡¡Tilonorrinco!!! ¡¡¡Espiditrompa!!!"