La IA pot provocar una catàstrofe civilitzatòria?
Aquí el paisaje se ha polarizado hasta la caricatura. En un extremo, el rey doomer Eliezer Yudkowsky (Machine Intelligence Research Institute), quizás la figura más influyente del movimiento de “AI safety”, estima la probabilidad de catástrofe civilizatoria en aproximadamente el 99,5%. En su libro con Nate Soares, Si alguien la crea, todos moriremos (Destino), argumenta que la tesis de ortogonalidad (inteligencia y objetivos son independientes) y la convergencia instrumental (agentes inteligentes diversos convergen en comportamientos de búsqueda de poder) hacen el alineamiento esencialmente irresoluble. Las reseñas técnicas, incluida una demoledora de Ben Goertzel (creador de SingularityNET), señalan que Yudkowsky antropomorfiza la inteligencia y que su estilo epistémico tiene un tono cuasi-religioso.
En el otro extremo, Nick Bostrom, el filósofo sueco de Oxford cuyo muy influyente Superinteligencia (2014) inauguró prácticamente el campo (con su aterrador y banal experimento mental del maximizador de clips), ha girado sorprendentemente hacia un optimismo condicional. Su último libro, Deep Utopia (2024), que reseñé aquí, ya no pregunta cómo sobrevivir a la IA sino qué daría sentido a la vida si la tecnología resolviera todos los problemas. Se define ahora como “un optimista preocupado”. Hay que añadir que el Future of Humanity Institute que fundó fue cerrado por la Universidad de Oxford en abril de 2024 por lo que Bostrom describió como “muerte por burocracia”.
La contribución teórica más fina de los últimos meses la ha hecho Atoosa Kasirzadeh (Carnegie Mellon, antes investigadora en DeepMind), que en Philosophical Studies (2025) distingue dos tipos de riesgo existencial de la IA: los “decisivos” (catástrofe súbita provocada por una superinteligencia descontrolada) y los “acumulativos” (erosión gradual de la autonomía humana, la gobernanza democrática y la capacidad de decisión colectiva). Esta distinción es crucial porque permite salir de la trampa binaria apocalípticos vs. integrados. La posición más defendible hoy es probablemente que los riesgos acumulativos son más inminentes y están mejor documentados que los decisivos, pero que estos últimos no pueden descartarse sin más.
Joe Carlsmith (Open Philanthropy, doctorado en filosofía por Oxford) ofrece quizás el análisis más sofisticado. Su serie de ensayos “Otherness and Control in the Age of AGI” (2024) introduce el concepto de “ateísmo profundo”, una desconfianza fundamental hacia la naturaleza como raíz de la preocupación por el riesgo de IA, y examina cómo el impulso hacia el control total tiene sus propias patologías. Su conexión con La abolición del hombre de C.S. Lewis ilumina lo que se pierde cuando controlamos los valores futuros con demasiada rigidez.
Daniel Arjona, Siete problemas filosóficos que no resolverán los charlatanes de la IA, El Arjonauta 08/04/2026
Comentaris