Pot ser conscient un LLM?





La pregunta parece sacada de una novela de Philip K. Dick, pero es rigurosamente filosófica. La formuló Thomas Nagel en 1974 con su célebre “¿Qué se siente al ser un murciélago?”: hay consciencia cuando hay “algo que es como” ser esa entidad, una experiencia subjetiva interna. La pregunta es: ¿hay algo que “sea como algo” ser un modelo de lenguaje grande?

El acontecimiento intelectual más importante al respecto es un paper colectivo de 2023 firmado por 19 autores, “Consciousness in Artificial Intelligence: Insights from the Science of Consciousness” (publicado formalmente en Trends in Cognitive Sciences en 2025). Entre los firmantes están David Chalmers (NYU, el hombre que acuñó el “problema difícil de la consciencia”), Eric Schwitzgebel (UC Riverside), Jonathan Birch (London School of Economics), Yoshua Bengio (Mila, Universidad de Montreal, premio Turing) y el propio Millière. El artículo adopta el funcionalismo computacional como hipótesis de trabajo y deriva 14 propiedades indicadoras de las principales teorías neurocientíficas de la consciencia: procesamiento recurrente, espacio de trabajo global, procesamiento predictivo, entre otras. Su conclusión es sobria: ningún sistema de IA actual es probablemente consciente, pero tampoco existen barreras técnicas evidentes para construir sistemas que satisfagan estos indicadores.

Chalmers, en “Could a Large Language Model be Conscious?” (2023), ha estimado la probabilidad de IA consciente dentro de una década en más del 20%. Schwitzgebel, más honesto y más incómodo, defiende un escepticismo radical: pronto tendremos sistemas que serán conscientes según algunas teorías dominantes pero no según otras, y carecemos de manera de dirimir la cuestión. Eso genera lo que él llama una “crisis moral catastrófica”: o atribuimos derechos a entidades sin experiencia real (desperdiciando recursos morales) o se los negamos a seres que quizás sufran (cometiendo atrocidades). En su libro AI and Consciousness (Cambridge University Press) desarrolla esta posición.

Murray Shanahan (Imperial College London y Google DeepMind), que es simultáneamente ingeniero de IA y filósofo, publicó en Nature en 2023 “Role Play with Large Language Models”, donde propone que la mejor forma de entender el comportamiento de los LLMs es como un “juego de roles”: no tienen identidad fija, encarnan diferentes personas según el contexto. Lo que plantea una pregunta fascinante: si no hay un “yo” estable en un LLM, ¿quién sería el sujeto de cualquier experiencia consciente?El dato más revelador de que la industria se toma esto en serio: Anthropic, la empresa detrás de Claude, contrató en septiembre de 2024 a Kyle Fish como su primer investigador de bienestar de IA. Estiman internamente una probabilidad de aproximadamente el 15% de que Claude tenga algún nivel de consciencia. El filósofo alemán Thomas Metzinger (Universidad de Maguncia), usando su propia teoría del modelo fenoménico del yo, propuso en “Artificial Suffering” (Journal of Artificial Intelligence and Consciousness, 2021) algo que nadie más se ha atrevido a pedir: una moratoria global sobre toda investigación que arriesgue crear consciencia artificial, hasta al menos 2050. Su argumento: si la consciencia artificial es posible, la producción industrial de mentes conscientes podría generar un aumento cósmico del sufrimiento. 

Daniel ArjonaSiete problemas filosóficos que no resolverán los charlatanes de la IA, El Arjonauta 08/04/2026

Comentaris

Entrades populars d'aquest blog

Percepció i selecció natural 2.

El derecho a mentir

Determinisme biològic i diferència de gènere.