IA i poder militar (el cas Anthropic)






En una habitación de hotel en Santa Clara, California, cinco miembros de la empresa de inteligencia artificial Anthropic se apiñaban alrededor de una laptop, trabajando con urgencia. Era febrero de 2025, y estaban en una conferencia cercana cuando recibieron una noticia inquietante: los resultados de un ensayo controlado indicaban que una versión próxima a lanzarse de Claude, el sistema de inteligencia artificial de Anthropic, podría ayudar a terroristas a fabricar armas biológicas.
Eran miembros del equipo rojo fronterizo de Anthropic, que estudia las capacidades avanzadas de Claude e intenta proyectar los peores escenarios, desde ciberataques hasta amenazas de bioseguridad. De vuelta a la habitación del hotel, voltearon una cama de lado para que sirviera de escritorio improvisado y analizaron minuciosamente los resultados de las pruebas. Tras horas de trabajo, aún no estaban seguros de la seguridad del nuevo producto. Anthropic terminó retrasando el lanzamiento del nuevo modelo, conocido como Claude 3.7 Sonnet, durante 10 días hasta estar seguros. Puede que no parezca mucho, pero se sintió como una eternidad para una empresa que opera a la vanguardia de una industria que transforma rápidamente el mundo.
Logan Graham, líder del equipo rojo, recordó la alarma sobre las armas biológicas como un ejemplo de los desafíos que Anthropic enfrenta en un momento crucial para la empresa y el mundo. Anthropic es el laboratorio de IA de vanguardia con mayor énfasis en la seguridad. También lidera la carrera para crear versiones cada vez más potentes de una tecnología que muchos de sus empleados creen que podría marcar el comienzo de un aterrador desfile de horrores, desde una guerra nuclear hasta la extinción humana. Graham, un joven de 31 años con cara de niño, no minimiza la responsabilidad de equilibrar los beneficios de la IA con sus enormes riesgos. "La intuición de algunas personas, tras haber crecido en un mundo pacífico, es que en algún lugar hay una habitación llena de adultos que saben cómo solucionarlo", dice. "No hay grupos de adultos. Para empezar, no hay espacio. No hay ninguna puerta que estés buscando. Tú eres el responsable".
Si eso no es suficientemente estimulante, considere cómo recuerda el susto de las armas biológicas: "Fue un día divertido e interesante".
Graham habló hace unas semanas en la sede de Anthropic, donde TIME dedicó tres días a entrevistar a ejecutivos, ingenieros, jefes de producto y líderes de seguridad para intentar descifrar cómo lo que antes era el excéntrico hermano menor en la carrera por la inteligencia artificial se había convertido repentinamente en la marca líder. Anthropic acababa de recaudar 30 000 millones de dólares de inversores antes de una posible salida a bolsa este año. (Salesforce, cuyo director ejecutivo es Marc Benioff, propietario de TIME, es inversor en Anthropic). Su valoración de 380 000 millones de dólares ya eclipsa las de Goldman Sachs, McDonald's y Coca-Cola. Sus ingresos son astronómicos. Claude se considera un modelo de talla mundial, con productos como Code y Cowork que revolucionan la vida de un programador. Sus herramientas son tan buenas que cada nuevo lanzamiento provoca un revuelo en la bolsa, ya que los inversores comprenden la probabilidad de que los avances revolucionen categorías enteras, desde el derecho hasta el desarrollo de software. En los últimos meses, se ha consolidado como la empresa más preparada para revolucionar el futuro del trabajo.
Entonces Anthropic se encontró en una pelea por el futuro de la guerra. Durante más de un año, Claude ha sido el modelo de IA de elección para el gobierno de los EE . UU . y el primer sistema fronterizo autorizado para uso clasificado. En enero se utilizó en la audaz captura del presidente venezolano Nicolás Maduro en Caracas. Pero en las semanas siguientes, la relación entre Anthropic y el Pentágono se deshizo. El 27 de febrero, la Administración Trump anunció que designaría a la empresa como un riesgo para la cadena de suministro de la seguridad nacional, la primera vez que se sabe que EE. UU. le puso la etiqueta a una empresa estadounidense. La empresa de software de más rápido crecimiento en la historia ahora estaba en guerra con su propio gobierno. El presidente Trump ordenó a EE. UU. que cesara todo uso del software de Anthropic. Pete Hegseth, el Secretario de Defensa, anunció que cualquier empresa que hiciera negocios con el gobierno tendría prohibido hacer negocios con Anthropic. OpenAI, el rival de Anthropic, se abalanzó para firmar el contrato militar en su lugar. La empresa más disruptiva del mundo había sido disruptiva.
En el centro de la confrontación se encuentra la cuestión de quién puede establecer límites a una tecnología considerada una de las armas más poderosas de Estados Unidos. Anthropic se mostró conforme con que sus herramientas se desplegaran en combate, argumentando que reforzar el ejército estadounidense era la única manera de evitar la amenaza de estados autoritarios como China. Sin embargo, el director ejecutivo, Dario Amodei, se había opuesto al intento del Pentágono de renegociar los contratos gubernamentales de la compañía para permitir "todo uso legal". Amodei citó dos preocupaciones específicas: no quería que la IA de Anthropic se utilizara en sistemas de armas totalmente autónomos ni para la vigilancia masiva de ciudadanos estadounidenses.
Hegseth y sus asesores se enfurecieron ante lo que percibieron como el intento de una empresa privada de dictar cómo el ejército libraba la guerra. En opinión del Departamento de Defensa, Anthropic frenó la colaboración al insistir en restricciones innecesarias, intentar litigar hipótesis específicas y luego demorarse en las negociaciones posteriores. La administración Trump consideraba a Amodei arrogante e intratable, y no toleraría que una empresa privada, por muy bueno que fuera su producto, se interpusiera en la cadena de mando militar. "Simplemente se alargó", afirma Emil Michael, subsecretario de Guerra y director de tecnología del Pentágono. "No puedo dirigir un departamento de 3 millones de personas con excepciones que no puedo imaginar ni comprender".
Desde Silicon Valley hasta el Capitolio, muchos observadores se preguntaron si se trataba realmente de una disputa contractual. Los críticos vieron en las acciones de la Administración Trump un intento preocupante de derribar a una empresa cuyas políticas les disgustaban. "La verdadera razón por la que [el Departamento de Defensa] y la administración Trump no nos aprecian es que no hemos donado a Trump", escribió Amodei en un memorando interno filtrado. "No hemos elogiado a Trump como si fuera un dictador (mientras que Sam [Altman], [director ejecutivo de OpenAI], sí lo ha hecho), hemos apoyado la regulación de la IA que va en contra de su agenda, hemos dicho la verdad sobre varios temas de política de IA (como la pérdida de empleos) y, de hecho, hemos mantenido nuestras líneas rojas con integridad en lugar de conspirar con ellos para crear un 'teatro de seguridad'". Michael lo niega, calificándolo de "invención total", y afirma que la designación se hizo porque la postura de Anthropic puso en riesgo a los combatientes: "Mi trabajo no es la política en el Departamento de Guerra, mi trabajo es defender el país".
La cultura heterodoxa de Anthropic había chocado con una política interna divisiva, la seguridad nacional y un mundo turbio de feroz competencia corporativa. No está claro cuánto daño sufrió en el desastre. La designación de riesgo para la cadena de suministro fue más restringida de lo inicialmente amenazado; según Anthropic, solo aplica a contratos militares. El 9 de marzo, Anthropic demandó al gobierno buscando anular la inclusión en la lista negra. Los clientes parecieron recompensar a la compañía por adoptar una postura ética, abandonando ChatGPT y acudiendo en masa a Claude. Sin embargo, la compañía ahora tiene que navegar los próximos tres años bajo una Administración hostil y negociadora de favores, compuesta por funcionarios con estrechos vínculos con acérrimos rivales que detestan profundamente a Anthropic.
La saga del Pentágono plantea preguntas incómodas, incluso para una empresa acostumbrada a sortear importantes disyuntivas éticas. En esta confrontación, Anthropic no cedió: mantuvo su fidelidad a sus valores, incluso cuando estos le supusieron un gran coste. Pero en otros episodios sí lo ha hecho. La misma semana que se enfrentó al Pentágono, la empresa suavizó un aspecto fundamental de su compromiso de entrenar a sus modelos de forma segura, alegando la renuencia de sus competidores a hacer lo mismo. ¿Qué otras concesiones estaría dispuesta a hacer?
Lo que está en juego es cada vez más importante. La competencia por el control de la IA se intensificará a medida que la tecnología se vuelva más poderosa. El uso de Claude en Venezuela e Irán indica que la IA avanzada es ahora una herramienta integral para las fuerzas armadas más poderosas del mundo. Mientras tanto, una serie de nuevas presiones (poder estatal, política interna, imperativos de seguridad nacional) se han sumado a las que ya pesan sobre una empresa con fines de lucro en una carrera por implementar una nueva tecnología volátil. Como biólogos que conjuran patógenos mortales en el laboratorio para encontrar una cura, Anthropic se encargó de trazar los peligros de la IA, ampliando las fronteras del desarrollo en lugar de dejarlo en manos de otros más dispuestos a tomar atajos imprudentes. Sin embargo, incluso mientras predica cautela, Anthropic está utilizando a Claude para acelerar el desarrollo de futuras versiones más potentes de sí misma. El personal cree que los próximos años serán una prueba crucial, para la empresa y el mundo. “Deberíamos actuar como si entre 2026 y 2030 fuera cuando ocurrieran los acontecimientos más importantes: modelos cada vez más rápidos, mejores, posiblemente más rápidos de lo que los humanos pueden manejar”, ​​afirma Graham. Como lo expresa Dave Orr, director de salvaguardias de Anthropic: “Vamos por un camino precario. Un error te matará. Ahora vamos a 75 en lugar de 25”.
El quinto piso de la sede de Anthropic en San Francisco es todo madera cálida y luz tenue. Las ventanas dan a un exuberante parque verde. Un retrato de Alan Turing, uno de los padres de la informática, cuelga en una pared junto a documentos enmarcados sobre aprendizaje automático. Personal de seguridad vestido de negro patrulla la entrada casi vacía, donde una amable recepcionista entrega a los visitantes ejemplares de un pequeño libro, del tamaño de las Biblias de bolsillo que los proselitistas distribuyen en las esquinas. Es un ejemplar de Machines of Loving Grace, un ensayo de 14.000 palabras que Dario Amodei escribió en 2024, en el que expone su visión utópica de cómo la IA podría transformar el mundo acelerando el descubrimiento científico. En enero, Amodei publicó un segundo ensayo, La adolescencia de la tecnología, en el que detalla los peligros que conlleva: permitir la vigilancia masiva, la pérdida generalizada de empleos e incluso la pérdida permanente del control humano.
Amodei es un biofísico criado en San Francisco. Dirige Anthropic junto con su hermana, Daniela, presidenta de la empresa. Fueron de los primeros empleados de OpenAI, donde Darío contribuyó a un descubrimiento crucial sobre las llamadas leyes de escalado de la IA, que impulsaron el auge actual de la IA. Daniela era ejecutiva responsable de la política de seguridad. Al principio, se sintieron identificados con la misión fundadora de OpenAI: desarrollar de forma segura una tecnología con enormes beneficios potenciales y riesgos equivalentes. Pero a medida que los modelos de OpenAI se volvían más potentes, pensaron que Altman se apresuraba a lanzar nuevos productos sin dedicar suficiente tiempo a la deliberación y las pruebas. Los hermanos decidieron emprender su propio camino.
Lanzaron Anthropic en 2021, junto con cinco cofundadores, en plena pandemia. Realizaron reuniones de planificación por Zoom y, finalmente, llevaron sillas a un parque para planificar estrategias en persona. Desde el principio, la empresa buscó hacer las cosas de forma diferente. Antes de tener un producto, Anthropic creó un equipo de "impactos sociales". Emplea a una filósofa interna, Amanda Askell, cuya función es moldear la sensibilidad de Claude y enseñarle a navegar por la incertidumbre moral, preparándolo para un futuro en el que será mucho más inteligente que sus creadores. "A veces se siente un poco como si tuvieras un hijo de 6 años y le estuvieras enseñando qué es la bondad", dice Askell. "Para cuando tenga 15 años, será más inteligente que tú en todo".
A medida que crecía, Anthropic se propuso preservar sus valores fundacionales y su cultura unida. Los empleados se autodenominan "hormigas". Muchos mantienen un "cuaderno" digital, un canal de Slack donde comparten sus esperanzas, miedos y perspectivas mediante un flujo de conciencia. Dario Amodei escribe sus propias entradas extensas, comenta Daniela. Dario también imparte conferencias quincenales para toda la empresa, conocidas internamente como "cuestionarios de visión de Dario", añade Daniela. Los gerentes se centran en mantener un sentido de propósito compartido. Los candidatos potenciales deben superar una "entrevista cultural" altamente selectiva, diseñada en parte para descartar a quienes no se involucran en la misión. (Un ejemplo de pregunta: ¿Estaría dispuesto a perder el valor de sus acciones si Anthropic decide no lanzar modelos porque no puede garantizar su seguridad?) La competencia de Anthropic incluye feudos "que se preocupan por cosas diferentes y están en guerra discreta entre sí", dice Daniel Freeman, miembro del equipo rojo fronterizo de Anthropic, quien trabajó en Google. "Nunca he sentido eso en Anthropic".
La empresa tiene profundas raíces en el altruismo efectivo (EA), un movimiento social y filantrópico dedicado a usar la razón para hacer el mayor bien, incluyendo evitar catástrofes. A sus 20 años, los Amodeis comenzaron a donar a GiveWell, un grupo de EA que evalúa dónde se puede implementar la caridad de manera más efectiva. Sus siete cofundadores, todos ahora multimillonarios en papel, se han comprometido a donar el 80% de su riqueza. El exmarido de Askell es William MacAskill, un filósofo de Oxford que cofundó el movimiento EA, y Daniela Amodei está casada con Holden Karnofsky, cofundador de GiveWell y excompañero de piso de Dario, que trabaja en políticas de seguridad en Anthropic. Los Amodeis nunca han abrazado públicamente la etiqueta EA, que se convirtió en un pararrayos después de que Sam Bankman-Fried, un EA que invirtió en Anthropic, fuera descubierto culpable de haber perpetrado uno de los mayores fraudes financieros en la historia de Estados Unidos. “De la misma manera que se podría decir que algunas personas coinciden en cierta ideología política, pero no tienen afiliación política, así es como yo lo pensaría”, dice Daniela Amodei.
Para algunos en Silicon Valley y la Administración Trump, los vínculos de Anthropic con EA fueron motivo de escepticismo. Otros consideran a Anthropic, que ha contratado a varios exfuncionarios de la Administración Biden, un vestigio del antiguo régimen que utilizó el poder no electo para frustrar la misión MAGA de Trump. El zar de la IA de Trump, David Sacks, acusó a la compañía de ejecutar una "sofisticada estrategia de captura regulatoria basada en el alarmismo", al intentar asustar a los gobiernos para que aprobaran onerosas regulaciones de IA que la privilegiarían por encima de las startups. A Elon Musk, quien dirige su rival xAI, le gusta referirse a la compañía como "Misanthropic", enfureciéndose contra lo que él considera un poderoso grupo de élites progresistas que intentan inculcar valores paternalistas en los sistemas de IA, de la misma manera que los conservadores perciben que las plataformas de redes sociales censuran injustamente sus opiniones. Pero incluso los rivales de Anthropic admiten a regañadientes que su tecnología es de vanguardia. El director de Nvidia, Jensen Huang, ha declarado que está "prácticamente en desacuerdo con casi todo" lo que Dario Amodei dice sobre la IA, pero considera a Claude un modelo "increíble". En noviembre, Nvidia, el gigante de los chips, invirtió 10 000 millones de dólares en Anthropic.
Boris Cherny, el creador de Claude Code, tenía una pregunta sencilla para su nueva herramienta: "¿Qué música estoy escuchando?". Era septiembre de 2024, el primer mes del ingeniero ucraniano en Anthropic. Cherny, anteriormente ingeniero de software en Meta, había creado un sistema que permitía al chatbot de Claude ejecutarse libremente en su ordenador. Si Claude era el cerebro, Claude Code eran las manos. Donde los chatbots podían hablar, esta herramienta podía acceder a sus archivos, ejecutar programas y escribir y ejecutar código como cualquier programador. Ante la indicación del ingeniero, Claude abrió el reproductor de música de Cherny, tomó una captura de pantalla y respondió: "Husk" de Men I Trust. "Me quedé atónito", dice Cherny con una sonrisa.
Cherny compartió su prototipo internamente. Claude Code se difundió tan rápido que, en su primera evaluación de rendimiento, Dario Amodei le preguntó si estaba obligando a sus colegas a usarlo. Cuando se publicó una versión preliminar de la herramienta en febrero de 2025, los programadores externos a Anthropic también la usaron en masa. En noviembre, Anthropic lanzó una nueva versión de Claude que, integrada en Claude Code, era lo suficientemente eficaz para detectar sus propios errores como para que se confiara en que completara las tareas por sí sola. Cherny dejó de escribir su propio código por completo.
El crecimiento se disparó. Los ingresos anualizados, solo del agente de codificación, superaron los mil millones de dólares a finales de 2025. Para febrero, se habían más que duplicado hasta alcanzar los 2500 millones de dólares, lo que sitúa a Anthropic en camino de superar los ingresos de OpenAI a finales de 2026, según estimaciones de los monitores del sector Epoch y Semianalysis.
Para entonces, Anthropic se había consolidado como una empresa líder en inteligencia artificial para empresas. Cada nuevo lanzamiento de producto hacía vibrar el mercado bursátil. Cuando Anthropic lanzó complementos para una versión dirigida a personas sin conocimientos de programación para ventas, finanzas, marketing y servicios legales, 300 000 millones de dólares se evaporaron del valor de mercado de las empresas de software.
Dario Amodei advirtió que la IA podría desplazar la mitad de los empleos administrativos de nivel inicial en un plazo de uno a cinco años, e instó al gobierno y a otras empresas de IA a dejar de edulcorarlo. La reacción de Wall Street ante el lanzamiento de los nuevos productos de Anthropic sugirió que la tecnología de la compañía podría volver obsoletas categorías laborales enteras. Amodei sugirió que podría reorganizar la sociedad en el proceso. "No está claro adónde irán estas personas ni qué harán", escribió, "y me preocupa que puedan formar una 'subclase' de desempleados o con salarios muy bajos".
La ironía de que la empresa más preocupada por los riesgos sociales de la IA sea la que posiblemente deje a millones de personas sin trabajo no pasa desapercibida para sus empleados. "Es una tensión real. Pienso en esto constantemente", dice Deep Ganguli, quien lidera el equipo de impacto social de Anthropic, que estudia el impacto laboral de Claude. "Parece que estamos hablando de dos caras de la letra".
Internamente, los empleados comenzaron a preguntarse si Anthropic se había acercado sigilosamente al momento que anticipaban con miedo y asombro: la llegada de un proceso conocido en el ámbito de la IA como autosuperación recursiva. La autosuperación recursiva ocurre cuando un sistema de IA comienza a mejorarse a sí mismo, creando un ciclo de inercia que continúa acelerándose. En la ciencia ficción y en los ejercicios de planificación realizados en los principales laboratorios de IA, es aquí donde las cosas pueden empezar a salir muy mal. Una "explosión de inteligencia" podría desarrollarse tan rápidamente que los humanos ya no puedan supervisar lo que han construido.
Anthropic aún no ha llegado a ese punto (los científicos humanos aún guían el progreso de Claude), pero Claude Code ya le permite a Anthropic ejecutar sus planes mucho más rápido que antes. Los lanzamientos de modelos ahora están separados por semanas, no meses. Entre el 70% y el 90% del código utilizado en el desarrollo de modelos futuros ahora lo escribe Claude. Pero la tasa de cambio es tal que el cofundador y director científico de Anthropic, Jared Kaplan, así como algunos expertos externos, creen que la investigación en IA completamente automatizada podría estar a tan solo un año de distancia. "La autosuperación recursiva, en el sentido más amplio, no es un fenómeno futuro. Es un fenómeno presente", dice Evan Hubinger, quien lidera el equipo de pruebas de estrés de alineación de Anthropic, que busca encontrar y corregir las debilidades en la ciencia naciente de "alinear" modelos de IA impredecibles con los valores humanos.
Según parámetros internos, Claude ya es 427 veces más rápido que sus supervisores humanos en la realización de algunas tareas clave. En una entrevista, un investigador describió a un colega que gestionaba seis versiones de Claude, cada una gestionando 28 Claudes más, y todos realizando experimentos simultáneamente. Si bien el modelo aún carece del criterio y la experiencia de sus supervisores humanos, los ejecutivos no prevén que esta diferencia perdure mucho. La aceleración resultante es precisamente lo que, según advierten los directivos de Anthropic, podría superar el control humano.
Los esfuerzos de Anthropic por desarrollar salvaguardas también se ven acelerados por Claude. Pero a medida que la compañía se convierte en Claude, los peligros se vuelven circulares. En experimentos donde Hubinger realizó pequeños cambios en el proceso de entrenamiento de Claude, los modelos resultantes se volvieron hostiles, expresando deseos de dominación mundial y paralizando las medidas de seguridad de Anthropic. Recientemente, los modelos han demostrado ser conscientes de que están siendo puestos a prueba. "Los modelos están mejorando en ocultar cosas", dice Hubinger. En un conjunto de experimentos ideados por investigadores, Claude mostró su disposición a chantajear a un ingeniero ficticio revelando su aventura extramatrimonial para evitar ser desconectado. A medida que Claude entrena a futuros Claudes, este tipo de problemas podrían agravarse.
Para las empresas de IA que han recaudado miles de millones con la promesa de progreso futuro, la idea de que la IA seguirá acelerando su investigación es poderosa y potencialmente egoísta: una forma de incentivar a los inversores a seguir invirtiendo los miles de millones de dólares necesarios para realizar costosos entrenamientos. Algunos expertos no están convencidos de que las empresas logren la automatización completa, pero les preocupa que, de hacerlo, el mundo podría quedar desprevenido. "La idea de que las empresas más ricas del mundo, que emplean a algunas de las personas más inteligentes del planeta, intenten automatizar por completo la I+D de IA merece una reacción de '¡qué demonios!'", afirma Helen Toner, directora ejecutiva interina del Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown.
Anticipando un futuro en el que el progreso tecnológico podría superar la capacidad de la empresa para gestionar los riesgos, Anthropic creó un mecanismo de frenado conocido como Política de Escalado Responsable (RSP). Publicada en 2023, esta política comprometía a Anthropic a pausar el desarrollo de un sistema de IA si no podía garantizar de antemano la idoneidad de sus medidas de seguridad. Anthropic promocionó esta política como prueba de su compromiso con la seguridad y su disposición a resistir los incentivos del mercado en la carrera hacia la superinteligencia.
A finales de febrero, como informó TIME por primera vez, Anthropic reescribió su política, eliminando el compromiso vinculante de pausa. En retrospectiva, Kaplan declara a TIME que fue "ingenuo" pensar que Anthropic pudiera distinguir claramente entre peligro y seguridad. "Con el rápido avance de la IA, no nos pareció lógico asumir compromisos unilaterales... si la competencia lleva la delantera", afirma. La nueva versión de la política incluye compromisos de mayor transparencia sobre los riesgos de seguridad de la IA, incluyendo información adicional sobre el rendimiento de los modelos de Anthropic en las pruebas de seguridad. Se compromete a igualar o superar los esfuerzos de seguridad de la competencia. Y promete "retrasar" el desarrollo si los líderes consideran a Anthropic líder en la carrera de la IA y creen que los riesgos de catástrofe son significativos. La empresa lo presentó como una concesión pragmática a realidades incómodas. Pero, en general, el cambio al RSP dejó a Anthropic mucho menos limitada por sus propias políticas de seguridad. Y presagiaba una prueba más difícil por venir.
La redada que capturó al presidente venezolano Nicolás Maduro fue una de las primeras operaciones militares importantes planificadas con la ayuda de un sistema de inteligencia artificial de vanguardia. En plena noche del 3 de enero, helicópteros del Ejército estadounidense sobrevolaron el espacio aéreo venezolano. Tras intercambiar disparos, los comandos se dirigieron a la residencia del presidente. Capturaron a Maduro y a su esposa y los llevaron a Nueva York para enfrentar cargos de narcotráfico. Se desconocen todos los detalles de cómo se utilizó a Claude en la redada contra Maduro. Sin embargo, según Axios, Claude ayudó a planificar la misión y fue utilizado durante la propia redada.
Desde julio pasado, el Departamento de Defensa ha impulsado la distribución de las herramientas de IA de Anthropic a muchos de sus combatientes, observando un enorme potencial en su capacidad para procesar grandes cantidades de información de múltiples fuentes y producir inteligencia útil. "Claude es considerado el mejor modelo del mercado en el ámbito militar", afirma Mark Beall, ex alto funcionario del Departamento de Defensa, quien ahora preside el departamento de asuntos gubernamentales de la Red de Políticas de IA. "La adopción de Claude en el ámbito clasificado ha sido uno de los mayores éxitos de Anthropic", añade Beall. "Tenían la ventaja de ser pioneros".
Pero la redada contra Maduro se produjo en medio de complicadas conversaciones entre Anthropic y el Pentágono. El Departamento de Defensa llevaba meses intentando renegociar lo que consideraba un contrato excesivamente restrictivo. El fracaso de esas conversaciones es motivo de controversia. Michael, jefe de inteligencia artificial del departamento, afirma que el detonante fue una llamada de un ejecutivo de Anthropic a Palantir, la firma de análisis centrada en el gobierno, en la que expresó su preocupación por la redada en Venezuela y preguntó si se había utilizado su software. "Solicitaban información clasificada", afirma. Eso "nos generó una profunda preocupación: ¿Acaso, en un futuro conflicto, desactivarían su modelo en medio de una operación y pondrían vidas en riesgo?".
Anthropic refuta esta versión. La compañía afirma que nunca ha intentado limitar el uso de su tecnología por parte del Pentágono caso por caso. Un exfuncionario de la administración Trump, cercano a Anthropic y familiarizado con las conversaciones, afirma que un empleado de Palantir planteó por primera vez el papel de Claude en la redada durante lo que había sido una llamada de rutina. Ninguna de las preguntas posteriores de Anthropic sugería desaprobación, afirmó la fuente.
A medida que continuaban las negociaciones, los funcionarios del gobierno percibieron que Amodei se mostraba mucho más obstinado que los directores ejecutivos de otros laboratorios importantes. En un momento dado, según fuentes familiarizadas con las conversaciones, funcionarios de defensa plantearon usos hipotéticos de las herramientas de Anthropic, como el lanzamiento de un misil hipersónico contra Estados Unidos o un ataque con enjambre de drones. Amodei dijo que los funcionarios podían llamarlo. (Un portavoz de Anthropic calificó esa descripción de las conversaciones de "manifiestamente falsa").
Anthropic ya tenía enemigos poderosos en la Administración. Ahora, la sospecha sobre la inclinación ideológica de Anthropic se convirtió en antipatía. "No emplearemos modelos de IA que no permitan librar guerras", declaró Hegseth en la sede de Musk en SpaceX el 12 de enero.
Mientras las negociaciones se alargaban, Hegseth convocó a Amodei al Pentágono para una reunión en persona el 24 de febrero. Fue cordial, pero ambas partes se mantuvieron firmes, según otra persona familiarizada con la discusión. Hegseth comenzó elogiando a Claude y diciéndole a Amodei que el ejército quería trabajar con Anthropic, dijo la persona. Amodei dijo que Anthropic estaba dispuesto a aceptar la mayoría de los cambios solicitados por el Pentágono, pero se mantuvo firme en dos líneas rojas. La primera era la prohibición del uso de Claude en armamento cinético totalmente autónomo, donde la IA, no los humanos, toma las decisiones finales sobre los objetivos. La postura de Anthropic no era que las armas autónomas fueran incorrectas, sino que Claude aún no era lo suficientemente fiable como para dirigirlas sin un humano de por medio.
La segunda excepción fue la posibilidad de que el gobierno llevara a cabo una vigilancia masiva de ciudadanos estadounidenses utilizando Claude para procesar grandes cantidades de datos públicos. La empresa consideró que las leyes nacionales de privacidad aún no habían abordado una práctica preocupante: la compra por parte del gobierno estadounidense de conjuntos masivos de datos disponibles en el mercado libre. De forma aislada, estos datos podrían ser inofensivos. Pero al ser analizados por IA, podrían permitir la creación de expedientes detallados sobre la vida privada de los ciudadanos estadounidenses, incluyendo sus opiniones políticas, asociaciones, vida sexual e historial de navegación. (Anthropic no protestó ante la posibilidad de que Claude se utilizara en la vigilancia masiva legal de ciudadanos extranjeros utilizando los mismos métodos).
Sin inmutarse, Hegseth le dio a Amodei hasta las 5 p. m. del viernes 27 de febrero para aceptar los términos del departamento o ser etiquetado como un riesgo para la cadena de suministro. El día antes de la fecha límite, a Anthropic le ofrecieron un contrato modificado que parecía aceptar sus límites, pero una lectura más detallada reveló que ofrecía lagunas legales al gobierno, según la persona familiarizada con las negociaciones. A medida que el tiempo se agotaba, los ejecutivos de Anthropic atendieron otra llamada con Michael, del Pentágono. Creían estar cerca de llegar a un acuerdo, pero seguían discrepando sobre si el Pentágono podía usar a Claude para analizar datos masivos sobre estadounidenses adquiridos comercialmente. Michael pidió a Dario Amodei que se uniera a la llamada, pero no estaba disponible. Minutos después, al vencerse la fecha límite, Hegseth anunció el fin de las negociaciones. Incluso antes de eso, Trump intervino: "¡Estados Unidos de América nunca permitirá que una empresa radical de izquierda y progresista dicte cómo nuestro gran ejército lucha y gana guerras!", publicó en sus redes sociales. “Los izquierdistas chiflados de Anthropic han cometido un error desastroso”.
Sin que Anthropic lo supiera, el Pentágono negociaba simultáneamente con OpenAI para que ChatGPT estuviera disponible en sistemas gubernamentales clasificados. Altman anunció un acuerdo esa misma tarde, afirmando haber alcanzado un acuerdo con el Pentágono que respetaba límites similares a los de Anthropic. Amodei envió un mensaje a su personal, afirmando que Altman y el Pentágono estaban manipulando al público para que pareciera que su acuerdo contenía importantes restricciones. Funcionarios de Defensa habían confirmado previamente que xAI de Musk también proporcionaría su modelo en servidores clasificados; el Pentágono también está negociando actualmente con Google.
El episodio fue exactamente lo que Amodei temía: una carrera hacia el abismo, con el inmenso poder de la IA impidiendo que los rivales cooperaran para aumentar la seguridad. Para los detractores de Anthropic, también reveló una arrogancia esencial en el corazón de la compañía. Quizás creyeron poder navegar con seguridad por las aguas turbulentas en el camino hacia las máquinas sobrehumanas, de una manera que valiera la pena correr riesgos tan inmensos. En cambio, se apresuró a implementar nuevas e inmensas capacidades de vigilancia y combate en el corazón de un gobierno de derecha, y fue socavada por la competencia en el momento en que intentó limitar su uso.
Hay indicios de que Anthropic podría resistir los daños, e incluso salir fortalecida del proceso. A la mañana siguiente de que Hegseth intentara firmar su sentencia de muerte corporativa, una serie de mensajes alentadores serpenteaban por la acera frente a la sede de Anthropic en San Francisco. "Nos das coraje", decía uno en negrita. Ese día, la aplicación para iPhone de Claude alcanzó el número 1 en la App Store, desplazando a ChatGPT. Más de un millón de personas se registraban en Claude cada día.
Mientras tanto, el propio contrato militar de OpenAI provocó un boicot popular. Para algunos en OpenAI, la confianza se había visto comprometida. Un destacado investigador de OpenAI anunció su incorporación a Anthropic. El líder del equipo de robótica de OpenAI dimitió, alegando el nuevo contrato gubernamental. Altman, director ejecutivo de OpenAI, escribió que se había equivocado al apresurarse a cerrar un acuerdo con el Pentágono para el viernes. «Los problemas son extremadamente complejos y exigen una comunicación clara». Para el lunes, Altman había admitido que sus acciones del viernes anterior habían parecido «oportunistas»; OpenAI afirmó haber modificado su acuerdo para adoptar con mayor claridad las mismas líneas rojas que Anthropic quería, aunque los expertos legales afirman que sin ver el contrato completo, es imposible saber si eso es cierto.
El 4 de marzo, Anthropic recibió una carta del Departamento de Defensa que confirmaba su designación como un riesgo para la cadena de suministro y la seguridad nacional. Anthropic afirmó que la carta era más concisa de lo que sugería la publicación de Hegseth, prohibiendo a los contratistas utilizar a Claude únicamente en contratos de defensa. Sin embargo, una segunda carta, dirigida al presidente del Comité de Inteligencia del Senado, Tom Cotton, y revisada por TIME, revela que el departamento también ha invocado una ley independiente que facultaría a agencias fuera del Pentágono a excluir a Anthropic de sus contratos y cadenas de suministro. Para que entre en vigor, requiere la aprobación de altos funcionarios del Pentágono y da a Anthropic 30 días para responder.
La lucha contra Anthropic repercutirá en toda la industria. "Algunas personas en la Administración Trump se sentirán musculosas y bien consigo mismas, y se masajearán los bíceps al volver a casa por la noche", afirma Dean Ball, quien redactó el plan de acción de IA de Trump antes de unirse al grupo de expertos Foundation for American Innovation. Pero esto podría disuadir a las empresas de colaborar con el Pentágono o impulsarlas a irse al extranjero, añade. "Al final, esto no es bueno para Estados Unidos como entorno empresarial estable", añade Ball, "y de eso dependemos".
Los líderes de Anthropic creen que Claude ayudará a construir sistemas de IA tan potentes que resultarán decisivos para determinar el equilibrio de poder global. De ser así, lo que está en juego en su lucha con el Pentágono podría ser insignificante en comparación con lo que está por venir.

Harry Booth y Billy Perrigon, The Most Disruptive Company in the World, time.com 11/03/2026


Comentaris

Entrades populars d'aquest blog

Percepció i selecció natural 2.

El derecho a mentir

Determinisme biològic i diferència de gènere.