La carrera per la superintel·ligència amenaça la democràcia.
| xarxes neuronals sintètiques |
Las transformaciones en curso son ya profundas y visibles. La advertencia de Geoffrey Hinton –pionero de las redes neuronales sintéticas que son la base fundacional de la inteligencia artificial– comienza a confirmarse día tras día: podríamos estar cerca de un mundo donde distinguir la verdad de la falsedad sea prácticamente imposible. Investigaciones recientes desmontan la idea de que los sistemas generativos puedan identificar y corregir de forma fiable la desinformación que circula en redes sociales. Ocurre lo contrario: la probabilidad de que estos modelos difundan afirmaciones engañosas sobre acontecimientos actuales prácticamente se ha duplicado en un año. En un reciente estudio, 35 por ciento de las respuestas generadas por IA contenían datos falsos, mientras que la proporción de preguntas que quedaban sin respuesta cayó del 31 por ciento en agosto de 2024 a cero. Esto significa que, incluso cuando no existe información suficiente para sostener una afirmación, la inteligencia artificial produce una respuesta de todos modos, expandiendo un ecosistema donde la frontera entre lo verificable y lo ilusorio se desdibuja con rapidez.
En este contexto, el concepto de autorregulación adquiere un matiz francamente insuficiente, al desplazar a los Estados de su función esencial de regulación y resguardo del interés público. Sam Altman, director ejecutivo de OpenAI y cofundador de Worldcoin (un proyecto que utiliza el escaneo del iris para crear una identidad digital destinada a comprobar la humanidad de cada usuario en entornos saturados de bots y deepfakes, y al mismo tiempo una criptomoneda concebida como infraestructura financiera de la era post inteligencia artificial) encarna bien esta paradoja. Por un lado impulsa modelos de inteligencia artificial cada vez más potentes, capaces de producir información que no siempre es verificable; por el otro, propone canalizar los futuros beneficios económicos de esa automatización mediante un token emitido y articulado desde su propio ecosistema. Así se configura un circuito cerrado en el que las grandes plataformas se reservan la facultad de determinar qué riesgos son aceptables, cómo deben mitigarse, quién recibe una credencial digital de “humanidad verificada” y quién puede participar en la economía automatizada del futuro. La autorregulación deja de ser un complemento del derecho público para convertirse en una forma de gobierno corporativo sobre la esfera digital, en la que quienes contribuyen a crear el problema reclaman también la autoridad para decidir cómo –y para quién– se resuelve.
A escala geopolítica, el primer síntoma de estas tendencias podría ser la consolidación de un ecosistema informativo radicalmente inestable. La desinformación nació como herramienta de guerra psicológica en el siglo XX. La diferencia es que hoy existen modelos autónomos y enjambres de bots que pueden industrializarla a bajo costo y con precisión quirúrgica. Estados que buscan cambiar el orden internacional a su favor ya utilizan campañas digitales, granjas de trolls y operaciones encubiertas para erosionar la confianza en instituciones democráticas, polarizar sociedades y debilitar alianzas. Con inteligencia artificial, esas operaciones pueden diseñarse desde un escritorio, segmentarse por perfil psicológico y ejecutarse a una velocidad sin precedentes, mientras las sociedades impactadas discuten si se trata de propaganda o de libertad de expresión.
En paralelo, la carrera entre Estados Unidos y China por el dominio de la inteligencia artificial apunta a una brecha tecnológica cada vez más amplia frente al resto del mundo. Las potencias que concentran talento, datos y capacidad de cómputo no solo ampliarán su ventaja económica y militar, sino que impondrán sus estándares técnicos, sus plataformas y dependencias al resto de los países. Muchas naciones en vías de desarrollo –incluidas varias en América Latina (como México), África y el sudeste asiático– corren el riesgo de convertirse, en el mejor de los casos, en proveedores de datos y mercados cautivos de servicios de IA diseñados en otros lugares. La soberanía ya no se medirá solo en territorio, sino en la capacidad de un país para desarrollar, auditar y eventualmente limitar los sistemas que estructuran su economía, su seguridad y su deliberación pública.
La pregunta de fondo, entonces, no es solo si podremos contener a una superinteligencia hipotética, sino si las potencias serán capaces de contenerse en esta carrera. En teoría, las naciones podrían pactar límites entre ellas: prohibiciones claras sobre armas autónomas, acuerdos para blindar la infraestructura crítica, mecanismos conjuntos de supervisión de sistemas que afectan elecciones o mercados, y auditorías independientes sobre los modelos considerados monopólicos y mal alineados. Pero en la práctica, cada incentivo geopolítico apunta en la dirección contraria: adelantarse al rival, capturar más datos, entrenar modelos más grandes, militarizar antes. La ventana para un marco de gobernanza que llegue antes que la próxima gran crisis sigue abierta, pero se estrecha con cada ciclo de innovación. Si el siglo XX estuvo marcado por la amenaza de la destrucción nuclear mutua, el XXI podría definirse por algo menos visible pero igual de profundo: la posibilidad de que la carrera por la superinteligencia deshaga, pieza por pieza, las condiciones que hacían posible la democracia y la autonomía de las naciones.
Eduardo Turrent Mena, Los riesgos geopolíticos de la inteligencia artificial, Letras Libres 19/11/2025
Comentaris