El meu smartphone té consciència?









En ciencia (y en filosofía), la carga de la prueba es de quien afirma, no de quién niega. Si un ingeniero me dice que los LLMs (1) son conscientes, es ese mismo ingeniero el que tiene que aportarme evidencias a favor de su tesis. Desde mi punto de vista (y tengo razón, jaja), no hay evidencias suficientes (ni de lejos), para justificar que los LLMs son conscientes. Que dispongamos de unos motores de inferencia estadística que han mostrado una excelente solvencia en el manejo del lenguaje o, incluso si se quiere, que han mostrado una fuerte inteligencia, no dice nada acerca de su consciencia. Hay una clara confusión entre las habilidades cognitivas superiores y la consciencia, cuando, verdaderamente, no tienen porqué tener nada que ver. Hay un acuerdo, más o menos explícito, entre los investigadores que se dedican a la consciencia, en hablar de consciencia en organismos vivos con una inteligencia muy limitada. Si aceptamos que un pez puede ser consciente y aceptamos también que un pez no es un animal muy inteligente, parece que no hacen falta unas altas habilidades cognitivas para la consciencia.

Pero entonces, si las máquinas se comportan como los seres conscientes ¿esto no basta? No, y me explico. No solo creemos que los demás humanos tienen consciencia porque se comporten como si la tuviesen, sino porque, interiormente, disponen de un sistema nervioso igual que el nuestro. Pensemos qué diríamos si vemos a un hombre comportándose igual que un humano consciente, pero luego descubrimos que carece absolutamente de cerebro y de todo sistema nervioso… ¿No pensaríamos entonces que su consciencia ha sido impostada de alguna extraña forma? Imaginad la macabra visión: ¡una marioneta vacía comportándose como una persona! ¿Por qué nos sentiríamos horrorizados? Porque para otorgar consciencia la conducta es insuficiente, hace falta «abrir el capó» y ver la máquina por dentro. Y aquí es donde las semejanzas se derrumban: los LLMs no tienen semejanza alguna con el tejido nervioso de los seres vivos. Si queréis echad un vistazo al artículo de Pham, Matsui y Chikazoe (2023), o al de Katyal, Parent y Alicea (2021), si bien es algo que parece bastante obvio ya a bote pronto: las redes neuronales artificiales son una casi infantil simplificación de la insondable riqueza del tejido nervioso del cerebro humano.

No conocemos bien la función de la consciencia. Todo parece indicar que algo tan aparentemente sofisticado no es un epifenómeno, sino que tiene que ser una adaptación biológica, tiene que tener alguna función biológica. El problema está en que si tú puedes construir una máquina que hace todo lo que hace un ser consciente, pero sin consciencia, ¿para qué entonces la consciencia? Por ejemplo, si una máquina lee la longitud de onda de la luz que llega a su sensor y determina que su objeto es «rojo» sin sentir en ningún momento el qualia «rojo», ¿para qué vale el qualia rojo? Algunos, como mi querido Dan Dennett o Patricia Churchland, optaron por quitar de en medio los qualia designándolos como un concepto obsoleto tal como lo es el flogisto, el éter o el calórico, a la vez que hacen malabares para no prescindir de algo tan real y obvio para todo ser humano como es la experiencia consciente. Yo no lo tengo nada claro y ahí ando a vueltas con unos y con otros, pero el caso es que si no conocemos bien la función de la consciencia, razón de más para ser prudentes a la hora de afirmar que los LLMs son conscientes.

Sí que sabemos algunas cosas de la consciencia y no se ajustan, para nada, a las cualidades de los LLMs. Siempre recurro a la lista que hace Gerald Edelman y Giulio Tononi en el magnífico El Universo de la consciencia. Allí nos dan una buena serie de características de la consciencia. Por ejemplo, su privacidad (nadie más tiene acceso a mi experiencia), su carácter unitario e integrado (mi experiencia consciente se me presenta como un todo coherente de todas mis modalidades sensoriales), variada en intensidad (puedo estar muy atento a algo o apenas darme cuenta), dirigida (mediante la atención), quizá equiparable a la memoria a corto plazo, con un funcionamiento serial y limitado (no se nos da bien la multitarea consciente) y parecida a un flujo contínuo (la famosa definición de William James). La consciencia parece un «espacio» subjetivo, un «lugar» en el que sentimos, deseamos, sufrimos, anhelamos, amamos, odiamos, percibimos el paso del tiempo, saboreamos un sabroso filete, olemos el aroma de un embriagador perfume, tenemos orgásmos, nos duelen las muelas, sentimos miedo al leer un libro de Stephen King, envidiamos el nuevo coche del vecino… La consciencia es ese extraño lugar donde transcurre nuestra vida y sin el cual nada tendría ni el más mínimo sentido. Es por eso que decimos que el único órgano que no querríamos que nos trasplantaran es el cerebro, porque ahí, de alguna extraña manera, se entreteje nuestra experiencia consciente. Entonces, cuando hablamos de esta riqueza del mundo consciente y luego analizamos el funcionamiento de un LLM… ¿Alguien encuentra algún encaje? ¿Tiene algo que ver el mecanismo de transformers que pondera la importancia de cada token dentro de un contexto lingüístico con todo lo que acabamos de decir? ¿En serio que alguien puede creer verdaderamente que un LLM tiene ese espacio subjetivo en el que sufre, ríe, sueña… solo porque coloca tokens de forma adecuada? ¡Eso es un non sequitur de libro!

... mi perspectiva es antropocéntrica porque lamentablemente no tengo ni la más remota idea de cómo será otro tipo de consciencia (Recordad el murciélago de Nagel). Y lo que hacen en la actualidad los ingenieros que intentan crear consciencia en máquinas es intentar imitar las cualidades de la consciencia humana en dichas máquinas ¿Qué podemos hacer si no? Ojalá conociéramos qué se siente al ser una estrella de mar (si es que se siente algo) pero a día de hoy no nos queda otra que trabajar con lo que sabemos.

Mi smartphone tiene cierto «auto-conocimiento» de sí mismo: «sabe» de su nivel de batería. El indicador de la pantalla se llega a poner rojo cuando la batería está muy baja ¿Tiene mi smartphone auotoconsciencia? ¿Comienza a sentir mi smartphone hambre cuando tiene la batería al 20%? No, de hecho es que mi smartphone no tiene un sí-mismo, no tiene un «sujeto» que «sepa» lo que le ocurre, no tiene ninguna identidad que delimite qué es su «Yo» y qué no lo es.

Se confunde el hecho de que la simulación computacional sea una maravillosa herramienta para estudiar la mente con la tesis de que la mente es una simulación computacional. De nuevo voy a repetir una muy manida metáfora para explicar esta idea: En tu ordenador creas una excelente simulación de una vaca con un altísimo nivel de detalle. En la granja virtual que has creado para ella, la vaca se comporta de manera absolutamente indistinguible de una vaca real. Es más, tu programa es tan bueno que te podría servir de herramienta para predecir el comportamiento de vacas reales. Sin embargo, la vaca de tu simulación no podrá darte leche que tú puedas saborear. Por mucho que la ordeñes virtualmente, su leche no te quitará el hambre. Solo podrá darte leche simulada. Pues igual nos pasa con la consciencia. Las herramientas matemáticas que simulan comportamientos conscientes podrán ser muy útiles guías de la investigación, pero no son conscientes. Se está confundiendo el mapa con el territorio.






(1) ... son modelos de aprendizaje profundo muy grandes que se preentrenan con grandes cantidades de datos. El transformador subyacente es un conjunto de redes neuronales que consta de un codificador y un decodificador con capacidades de autoatención.

Comentaris

Entrades populars d'aquest blog

Percepció i selecció natural 2.

El derecho a mentir

Què faria Martha Nussbaum davant una plaga de porcs senglars?