Quién debe gobernar al algoritmo?





El “problema del alineamiento” es hoy la obsesión central de la industria de la IA: ¿cómo asegurarse de que los sistemas de inteligencia artificial hagan lo que queremos? Pero hay una pregunta previa que casi nadie se hace: ¿quién decide qué es lo que “queremos”? ¿Y con qué autoridad?

Seth Lazar (Johns Hopkins), filósofo político que fundó el MINT Lab, ha producido la intervención más penetrante. Sus Tanner Lectures en Stanford (2023), publicadas como “Governing the Algorithmic City” en Philosophy & Public Affairs (2025), introducen el concepto de la “Ciudad Algorítmica”: la red de relaciones sociales mediadas por algoritmos en la que ya vivimos. Su insight crucial es que el alineamiento de IA tal como se practica hoy aborda solo la pregunta “qué” (que el sistema produzca respuestas buenas) mientras ignora el “cómo” (¿es legítimo el proceso por el que se decide qué es “bueno”?) y el “quién” (¿quién tiene autoridad para decidirlo?). Dicho de otro modo: un puñado de ingenieros y ejecutivos en San Francisco está decidiendo los valores morales que gobernarán los sistemas con los que interactúan miles de millones de personas, sin consultar a nadie.

Amanda Askell (Anthropic), filósofa con doctorado en NYU especializada en ética infinita, diseñó la “Constitución” de 20.000 palabras que gobierna el comportamiento de Claude. Fue nombrada una de las TIME 100 AI en 2024. Es quizás el ejemplo más puro de filosofía que moldea directamente un sistema de IA. Iason Gabriel (Google DeepMind, doctorado en filosofía moral por Oxford) publicó en Minds and Machines(2020) el mapa de referencia del alineamiento de valores, “Artificial Intelligence, Values, and Alignment”, donde aplica categorías rawlsianas al problema. Markus Kneer y Dustin Viehoff presentaron en FAccT (2025) un artículo empírico demoledor: los humanos tienen desacuerdos morales profundos y sistemáticos sobre cuestiones básicas de agregación (¿se pueden sumar sufrimientos? ¿vale más salvar a muchos que a pocos?), lo que significa que el alineamiento no puede converger hacia un marco moral único. El pluralismo es una condición estructural.

Daniel ArjonaSiete problemas filosóficos que no resolverán los charlatanes de la IAEl Arjonauta 08/04/2026

Comentaris

Entrades populars d'aquest blog

Percepció i selecció natural 2.

El derecho a mentir

Determinisme biològic i diferència de gènere.