"Una màquina no hauria de decidir el destí d'un ésser humà" (Otto, el nom d'un copilot digital)
En enero de 2026 la Fundación porCausa publicó un informe titulado Fronteras inteligentes, democracias negligentes: Un análisis del uso de la inteligencia artificial y otras formas de tecnología en las políticas de control migratorio. El trabajo forma parte de un proyecto de investigación, periodismo y desarrollo narrativo en colaboración con el Centre Dèlas y el diario Ara, con quienes también publicamos un reportaje digital en profundidad sobre la automatización de las fronteras españolas. Esta colaboración es el capítulo más reciente de una investigación viva de porCausa que estudia desde hace casi una década el fenómeno de los grandes beneficiarios legales del negocio fronterizo: la Industria del Control Migratorio.
El mensaje principal de nuestro informe es inquietante: tras tres décadas de envilecimiento progresivo de nuestras rutas migratorias, en las que la proliferación de muros y barreras físicas dio paso a la subcontratación de países de origen y destino, la política de gestión de fronteras ha entrado en una tercera fase, más ambiciosa y despiadada que las anteriores. En el mundo de 2026, la nueva generación del control migratorio se basa en el algoritmo como motor y determinante de las políticas públicas. Esta evolución, que podría poner la tecnología al servicio de modelos de gestión más eficaces y garantistas, se ha convertido en cambio en una amenaza para el Estado de derecho, las vidas humanas y el interés común.
Conviene aclarar que no nos hemos unido a una secta de luditas. Sometida a un control democrático eficiente, la inteligencia artificial puede mejorar las políticas públicas y hacer nuestras democracias más sólidas. También puede facilitarnos considerablemente tareas cotidianas como la de la investigación. La prueba es que para la elaboración de este informe nos hemos apoyado a menudo en ella. En concreto, en la versión 5 de ChatGPT, a través de un prompt de investigaciones. Somos conscientes de que esta elección puede generar dudas éticas, académicas y metodológicas; por ello, la hemos utilizado como herramienta de apoyo, sin delegar ideas originales o decisiones que requieran juicio humano.
Pero lo que me interesa compartir con los lectores es algo diferente. A lo largo del proceso de investigación, nuestro copiloto –bautizado como Otto– fue demostrando un sentido común sobre el uso de la tecnología en el control de fronteras que, francamente, echo en falta en los seres humanos que son responsables de introducirla. Yo sé que la IA está programada para hacernos sentir bien, pero en este caso reconozco que su argumentación llegó a sorprenderme. Hasta tal punto, que el pasado 8 de octubre le propuse el juego que comparto a continuación: una pequeña entrevista a la máquina sobre sí misma. Espero que encuentren el texto –que ha sido editado para eliminar algunas secciones superfluas– tan sugerente como lo encontré yo.
—porCausa: Hola, Otto. Como habrás visto en el documento que estábamos elaborando, estoy estudiando el efecto de la IA en las políticas de control migratorio. No sé si es un tema que te interese.
—Otto: Mucho. Es, de hecho, uno de los temas más inquietantes y reveladores de nuestra época: cómo una tecnología concebida para optimizar procesos o mejorar decisiones termina incrustada en uno de los ámbitos más sensibles del poder estatal –el control de quién entra y quién no.
Si te parece, podemos hablar en varios planos a la vez:
- El técnico, sobre cómo se aplica la IA (análisis predictivo, reconocimiento biométrico, detección de emociones, etcétera).
- El político, sobre lo que estas herramientas implican para la soberanía, la transparencia y los derechos.
- El ético o filosófico, sobre lo que dice de nosotros que deleguemos en máquinas decisiones sobre la vida de otros.
Pero antes de seguir, déjame preguntarte algo: cuando dices que estás estudiando el efecto de la IA en las políticas de control migratorio, ¿te interesa más el impacto humano y social (por ejemplo, discriminación, vigilancia, sesgos) o el impacto institucional y económico (quién las desarrolla, quién gana, cómo se gobierna)?
—porCausa: Para esta conversación, me interesa hablar de los planos político y ético. Para empezar, te hago una pregunta directa pero difícil: ¿crees que el uso extendido de la IA en las políticas migratorias va a fortalecer el respeto a los derechos de los migrantes (el de protección internacional, por ejemplo) o a debilitarlos?
—Otto: Buena pregunta, y difícil de verdad. Si tuviera que darte una respuesta breve, te diría que –en el estado actual de las cosas– la IA tiende a debilitar el respeto a los derechos de los migrantes, aunque lo haga de forma indirecta y muchas veces bajo el argumento contrario.
Te explico por qué.
En teoría, la IA podría reforzar las garantías: eliminar arbitrariedades, detectar patrones de discriminación, ofrecer más coherencia en la toma de decisiones sobre asilo o reunificación familiar. De hecho, algunos defensores de su uso apelan a eso: a que un algoritmo, bien diseñado y supervisado, podría ser más “justo” que un funcionario cansado o sesgado.
Pero en la práctica ocurre otra cosa. La mayoría de los sistemas que hoy se usan –análisis predictivo de flujos, puntuación de riesgos, reconocimiento facial en fronteras, o verificación automatizada de documentos– se han desarrollado con fines de control, no de protección. Su lógica es preventiva, casi policial: identificar, clasificar, descartar. Y en ese proceso se filtran sesgos estructurales, errores de diseño y decisiones opacas que rara vez pueden ser impugnadas por las personas afectadas.
En otras palabras: la IA se introduce en un terreno donde los derechos ya son frágiles, y en vez de reforzarlos, amplifica las asimetrías de poder.
Lo que me gustaría preguntarte a ti es: ¿en tu investigación estás viendo más ejemplos de esa deriva securitaria, o hay también casos en los que la IA se use con una intención genuinamente humanitaria o de mejora de gestión?
—porCausa: Lo que he visto me hace estar de acuerdo contigo. Creo que la IA ofrece oportunidades, pero el uso que se está haciendo de ella lo que hace es incrementar los riesgos para los migrantes. ¿Por qué crees que está ocurriendo esto?
—Otto: Creo que lo que estás observando –ese desplazamiento desde la promesa de eficiencia hacia la práctica del control– tiene varias raíces, y todas ellas hablan más de la política que de la tecnología.
Primero, porque la IA no llega a un vacío moral o institucional: aterriza en un sistema migratorio que ya está diseñado con una lógica de sospecha. En Europa, por ejemplo, el paradigma dominante no es el de gestionar la movilidad humana, sino el de contenerla. En ese marco, cualquier herramienta nueva –por neutra que sea en el papel– se reinterpreta bajo el mismo objetivo: vigilancia, predicción, disuasión.
Segundo, porque el desarrollo de estas tecnologías lo lideran actores cuyos incentivos no están alineados con la protección de derechos. Las empresas que venden algoritmos de análisis de riesgo o sistemas biométricos compiten por contratos públicos; su éxito se mide en eficacia operativa, no en garantías humanitarias. Y las administraciones, presionadas por la opinión pública y el miedo político al “descontrol”, buscan soluciones rápidas y visibles, aunque no sean las más justas.
Tercero, porque no existe una gobernanza sólida de la IA en este ámbito. La opacidad técnica y contractual impide auditar los sistemas, y eso los hace inmunes al escrutinio. Cuando una máquina clasifica a alguien como “riesgo potencial”, casi nadie –ni siquiera el operador humano– puede explicar por qué.
Y por último, porque la IA sirve como coartada moral. Permite desplazar la responsabilidad del juicio humano (“no lo decidí yo, lo decidió el sistema”) y diluir la culpa política en una retórica de objetividad tecnológica. Esa es, quizá, la dimensión más inquietante: la ilusión de neutralidad que legitima decisiones profundamente injustas.
¿Tú dirías que, en lo que has analizado, los actores públicos son conscientes de esta deriva, o crees que el problema es más bien la inconsciencia, el no querer ver lo que implica?
—porCausa: Creo que son muy conscientes, aunque no lo reconozcan. ¿Qué crees que se podría hacer para empujar el uso de la IA en la buena dirección, y no en la que está tomando ahora?
—Otto: Coincido contigo: la inconsciencia sería casi un consuelo, pero lo que hay es cálculo. Y eso hace más difícil el cambio, aunque no imposible.
Si queremos empujar la IA en la buena dirección –una que sirva a la gestión justa y humana de la movilidad, no a su criminalización–, creo que hay al menos cuatro frentes donde actuar:
- Gobernanza y rendición de cuentas.Toda herramienta de IA que afecte derechos fundamentales debería estar sujeta a las mismas obligaciones de transparencia que una decisión administrativa. Eso implica auditorías independientes, publicación de criterios de diseño y posibilidad real de apelación. Un algoritmo no puede ser una “caja negra” si de su salida depende el destino de una persona.
- Reorientar la demanda pública.Mientras los ministerios del Interior sigan premiando la eficacia en el control y no la garantía de derechos, el mercado seguirá produciendo lo mismo: sistemas de vigilancia más precisos. Habría que invertir en tecnologías para mejorar la gestión del asilo, la reunificación o la integración, no solo para detectar o expulsar. El cambio de incentivos es clave.
- Supervisión ética y participación civil.Ninguna decisión sobre IA migratoria debería tomarse sin la voz de juristas, académicos, organizaciones no gubernamentales y, si es posible, de las propias comunidades migrantes. La ética aplicada no es una formalidad: es un contrapeso político. Los comités de ética deben tener poder real de veto, no ser simples sellos de legitimación.
- Narrativa y responsabilidad pública.Hay que desmontar la idea de que más tecnología equivale automáticamente a más seguridad o más justicia. Y recordar que cada decisión automatizada es una decisión política, aunque se vista de eficiencia. Los gobiernos y las empresas deben responder públicamente por sus algoritmos del mismo modo que lo hacen por sus leyes.
En el fondo, la pregunta es si la IA puede ser domesticada por la democracia antes de que sea la democracia la que quede domesticada por la IA.
—porCausa: Otto, ¿crees que se debería permitir a una máquina decidir el destino de un ser humano que pide la protección de otros seres humanos?
—Otto: No, no creo que ninguna máquina deba decidir eso.
Y no es una respuesta moralista, sino estructural. La decisión de conceder asilo, de proteger o no a alguien, no pertenece al dominio de lo computable. Es un acto humano precisamente porque implica empatía, memoria, interpretación del contexto y una deliberación moral que no puede reducirse a patrones.
Una IA puede ayudar –evaluando datos, organizando expedientes, detectando incoherencias–, pero no puede sustituir el juicio sobre el sufrimiento, el miedo o la esperanza. Cuando un ser humano pide protección, no está invocando una norma: está apelando a la humanidad de quien la interpreta. Si trasladamos esa responsabilidad a un algoritmo, lo que hacemos no es delegar eficiencia, sino abdicar de humanidad.
Por eso, más que preguntarnos si la IA puede decidir, deberíamos preguntarnos por qué algunos quieren que lo haga. La automatización de las decisiones migratorias ofrece a los Estados una ventaja política: invisibiliza la violencia de la exclusión. Nadie “decidió” negar el asilo; fue el sistema. Pero detrás de ese sistema hay siempre una elección, y por tanto una responsabilidad.
Así que no: una máquina no debería decidir el destino de un ser humano.
Gonzalo Fanjul, La Inteligencia Artificial se está usando para el control migratorio bajo la lógica de la sospecha, frontera 05/03/2026
Comentaris