Sobre si un robot comprèn.




La inteligencia artificial y sus algoritmos no sienten, no tienen conciencia moral, no comprenden. A su manera, «entienden», tienen entendimiento porque son inteligencia. Pero otra cosa es «comprender». Comprender es más profundo, abarcador y versátil que entender. Gracias a ello podemos formular juicios, y hasta juzgar sobre los propios juicios, como hace la conciencia moral. Un humano sí comprende, y comprende que comprende, y comprende esto último también. ¿Qué robot tiene toda esa facultad de reflexividad? La máquina piensa, y puede llegar a pensar sus pensamientos. Pero ¿pensará sobre el hecho mismo que piensa? ¿juzgará y se juzgará a sí misma? 

No estamos pues, en condiciones para sostener que un robot comprende. «Deep Blue», el computador que en 1997 ganó la partida de ajedrez al campeón mundial Garry Kasparov, no debió comprender la zozobra y la decepción de su rival, ni seguramente el significado de su propio triunfo. Kasparov dijo: «Comprendí que la máquina no calculaba, pensaba». Pero la máquina no «comprendía», eso que de ella decía el ajedrecista. Ni siquiera «pensaba», porque hay una enorme diferencia entre calcular y pensar, entre entender y comprender. Comprender, pensar, está lleno de facetas, entre sensitivas, emocionales y conceptuales, que un programa no puede recoger. La idea de esta superioridad es compartida por la mayoría de los creadores de inteligencia artificial. 

Norbert Bilbeny, Robótica, ética y política, blogdejoaquinrabassa 03/2024

Comentaris

Entrades populars d'aquest blog

Percepció i selecció natural 2.

Gonçal, un cafè sisplau

"¡¡¡Tilonorrinco!!! ¡¡¡Espiditrompa!!!"