"Per compendre realment el món, cal tenir consciència" (Ramón López de Mántaras).
Si nos ceñimos a la IA moderna, la gran pregunta científica es si es posible que haya inteligencia en algo que no es biológico. Yo creo que, para comprender realmente el mundo, es necesario tener consciencia. Ese es el objetivo científico desde los tiempos de los pioneros de los años cincuenta y sesenta: hacer máquinas que sean igual o más inteligentes que los humanos en todos sentidos. Mi opinión, y la de otros como Yann LeCun o Demis Hassabis [director general de Google DeepMind], es que la IA generativa no solo no nos hace avanzar hacia esa IA fuerte, sino que, como dice LeCun, nos desvía del camino para lograrla. El argumento es que no pueden comprender el mundo porque no tienen un cuerpo con el que interactuar en este mundo. Yo voy un poquito más allá: tener cuerpo posiblemente permita aprender leyes físicas básicas y las relaciones causa-efecto más elementales que conoce hasta un bebé, como que si sueltas una manzana, se cae al suelo. Pero eso no implica que una IA tenga consciencia.
Enseguida proyectamos sujetos en objetos que no tienen cualidades humanas. Eso ha sido siempre así. Pero hay que reconocer que, en este caso, el resultado es impresionante. Tú le preguntas algo a ChatGPT y las respuestas son de una precisión pasmosa, gramaticalmente perfectas, persuasivas y con un discurso bien hecho, aunque a veces suelte falsedades. Yo entiendo que la gente pueda llegar a pensar que detrás de ello realmente hay una inteligencia incluso más potente que la suya. Pero en realidad estás ante un programa de ordenador que detecta y recombina patrones una y otra vez y regurgita los resultados.
Quien afirme que la máquina es inteligente y consciente, ese es quien tiene que demostrarlo. Yo soy de los que creen que ser consciente, comprender el mundo y ser inteligente en el sentido humano del término está profundamente arraigado en el hecho de que somos seres vivos. En que nuestro sustrato es la química del carbono, no la del silicio. Somos tan distintos a las máquinas, con su hardware y su software… La física que hay detrás de los ordenadores está basada en transistores que conducen o no electricidad, los unos y ceros, mientras que nuestros símbolos físicos son los procesamientos que hacemos con las neuronas, que son mucho más complejos que el lenguaje binario. Tenemos actividad eléctrica, pero también química. En fin, es tan incomparable y tan distinta la naturaleza del cerebro y del cuerpo humano respecto a una máquina que, en mi opinión, la consciencia y la inteligencia solo se pueden dar en seres vivos. Otra cosa es que, en un día muy lejano, la bioingeniería evolucionara de tal modo que los replicantes de Blade Runner fueran factibles. Si eso sucede, yo empezaría a admitir que puede que las máquinas puedan llegar a ser conscientes e inteligentes.
La IA no siempre necesita tener conocimiento del mundo para funcionar bien. AlphaFold, que le ha valido el Nobel de Química a Hassabis, tiene 32 algoritmos distintos. Hay redes neuronales, machine learning e IA de causalidad trabajando de forma integrada. Para predecir la forma en que se pliegan las proteínas no hace falta tener un modelo del mundo, y, por tanto, no se necesita tener cuerpo.
Hay que regular las aplicaciones peligrosas de la IA. No hablamos de que pueda dominar a la humanidad, sino de peligros reales: manipulación de la información, desinformación, influencia en resultados electorales, sesgos, discriminación, consumo energético absolutamente insostenible, etcétera. Tenemos ya una lista larga de problemas reales. Da la sensación de que quienes se centran en los riesgos existenciales de la IA lo hacen para correr un tupido velo sobre lo que ya está pasando.
Manuel G. Pascual, entrevista a Ramón López de Mántaras: "La consciencia y la inteligencia solo se pueden dar en seres vivos", El País 16/04/2025
Comentaris