Poden pensar les màquines?





 El filósofo John R. Searle está encerrado en una habitación en la que van entrando, por una ranura, mensajes con caracteres chinos. Searle no sabe una sola palabra de este idioma, pero consulta un complejo manual en inglés que le indica qué símbolos son los adecuados para responder a los que le llegan. Gracias a este manual es capaz de enviar una respuesta al exterior, donde hay una persona que sí habla chino y que está convencida de que mantiene una conversación en este idioma con el filósofo. ¿Podemos decir que John Searle sabe chino?

Searle (nacido en Denver en 1932) planteó este experimento mental en “Minds, Brains, and Programs”, un artículo publicado en 1980 (pdf). Como explica a Verne Ana Cuevas Badallo, profesora de Filosofía de la Ciencia en la Universidad de Salamanca, el estadounidense respondía así a los defensores de la llamada “inteligencia artificial fuerte”, que defiende que una inteligencia artificial podría igualar o superar la inteligencia humana en cualquier ámbito. Para el filósofo, poder procesar símbolos de modo puramente sintáctico no significa que haya capacidades mentales reales, ya que eso lo da la semántica, es decir, el contenido y la interpretación de ese contenido.

Es decir, un algoritmo no es equivalente al pensamiento consciente y el hecho de que un programa maneje símbolos no significa que comprenda lo que está haciendo.

Una de las ideas que ataca Searle con este experimento es el test de Turing, según el cual una máquina se podría considerar inteligente si una persona no supiera si está hablando con un ordenador o con otro interlocutor. Searle considera que su habitación podría pasar este test y hacer creer a los demás que sabe chino. Aunque no tenga ni idea.

Sin embargo, el matemático británico Alan Turing (1912-1954) escribió en el artículo donde habla de su test (pdf) que la pregunta “¿pueden pensar las máquinas?” no tiene sentido y no merece la pena discutirla. Lo importante para él es si nosotros podríamos darnos cuenta de la diferencia. Por ejemplo, ¿importa que la computadora Deep Blue y la IA Alpha Go tengan conciencia de lo que están haciendo, o solo importa que hayan ganado a los campeones humanos de ajedrez y de go?

Jaime Rubio Hancock, La habitación china: ¿puede pensar una máquina?, Verne. El País 16/08/2020

https://verne.elpais.com/verne/2020/08/03/articulo/1596468444_531650.html?fbclid=IwAR2wiv14oE0GQmW-kguJNESStllkFuJYBzp8rqcu2SA30_tDF_OmNp8iOLU


Comentaris

Entrades populars d'aquest blog

Percepció i selecció natural 2.

"¡¡¡Tilonorrinco!!! ¡¡¡Espiditrompa!!!"