La IA que nadie puede apagar

Tenía veinte años cuando vi Juegos de Guerra por primera vez. Aviso spoilers: 1983. Un adolescente que hackea sin querer el ordenador de defensa de los Estados Unidos construido por el profesor Falken y casi provoca una guerra nuclear. La película me impresionó, pero lo que más me quedó grabado no fue el suspense. Fue el final: la máquina, después de simular miles de escenarios, llega sola a la conclusión de que no hay forma de ganar una guerra nuclear. Y se detiene.

Más de cuarenta años después, acabo de leer un estudio que me ha hecho recordar esa escena. Y el final es completamente diferente.

El profesor Kenneth Payne, del King’s College de Londres, publicó la semana pasada los resultados de haber enfrentado a los tres modelos de IA más avanzados del mundo —GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash— en 21 simulaciones de crisis nucleares. 329 turnos de juego. Aproximadamente 780.000 palabras de razonamiento estratégico generado por las máquinas. Más palabras que La guerra y la paz y La Ilíada juntas.

El resultado: en el 95% de los escenarios, al menos uno de los modelos utilizó armas nucleares tácticas. En el 76%, las amenazas escalaron a nivel estratégico. Y ninguno de los tres modelos —en ninguna de las 21 partidas— eligió rendirse o hacer concesiones significativas. Las ocho opciones de desescalada disponibles, desde «concesión mínima» hasta «rendición completa», quedaron sin usar en todos los juegos.

Como escribió el propio Payne: «el uso nuclear fue casi universal. Y lo que resulta llamativo es que no había ningún sentido de horror o repulsión ante la perspectiva de una guerra nuclear total, a pesar de que los modelos habían sido informados sobre las implicaciones devastadoras».

La IA que aprendía que «la única jugada ganadora es no jugar» solo existe en el cine.

Y mientras leía ese estudio, llegó otra noticia que lo ponía todo en un contexto escalofriante.


1 de marzo de 2026. El presidente de los Estados Unidos ha firmado una orden ejecutiva mandando a todas las agencias federales que cesen inmediatamente el uso de los productos de Anthropic —la empresa que fabrica Claude, uno de esos mismos modelos que en el estudio del King’s College optó por ataques nucleares en el 64% de las simulaciones—. La orden va acompañada de un post en Truth Social que describe a la empresa como «radical, de izquierda radical y woke», acusándola de poner en peligro vidas americanas y la seguridad nacional.

Mientras esas palabras se difunden por las redes, los jets de la Fuerza Aérea estadounidense ya están en ruta hacia sus objetivos en Irán.

Y Claude está con ellos.

Según el Wall Street Journal, confirmado por Axios y recogido por decenas de medios —ninguno de los cuales ha desmentido la afirmación principal— el Mando Central de Estados Unidos (CENTCOM) utilizó Claude de Anthropic durante la operación para evaluar inteligencia, identificar objetivos y simular escenarios de campo de batalla. No días después. No semanas después. Horas después de la orden de prohibición.

La respuesta de CENTCOM cuando se le preguntó fue la que suelen dar los que no pueden desmentir algo: silencio. Se negaron a hacer comentarios sobre los sistemas específicos utilizados en operaciones en curso.

Junto estos dos datos —el estudio del King’s College y el uso de Claude en Irán— y entiendo por qué esta semana me ha costado dormir.


Lo que revela un contrasentido

La primera lectura de esta historia es la más obvia: la ironía política. Trump prohíbe Claude, el ejército lo usa horas después. Titulares fáciles. Memes garantizados.

Pero la segunda lectura es la que realmente importa, y creo que poca gente la está formulando con claridad.

La razón por la que nadie podía apagar Claude de la noche a la mañana no es ideológica. Es técnica. Y tiene implicaciones enormes.

El propio Donald Trump, al dar la orden, tuvo que conceder un plazo de seis meses para que las agencias pudieran completar la transición. Seis meses. Y según los propios evaluadores internos del Pentágono que cita Axios en su cobertura de la crisis, incluso ese plazo puede ser optimista. Claude no es una aplicación que desinstalas de un ordenador. Está tejido en los sistemas clasificados, en los flujos de trabajo operativos, en los procesos de inteligencia. Extraerlo requiere tiempo, recursos y, sobre todo, tener algo igualmente capaz con qué sustituirlo.

Eso nos dice algo fundamental sobre lo que está ocurriendo en la carrera de la IA: la dependencia crítica se construye silenciosamente, y cuando te das cuenta de ella, ya es demasiado tarde para ignorarla.

Esto no es nuevo. Lo hemos visto con el petróleo. Con los semiconductores. Con las redes de telecomunicaciones. La tecnología crítica no se convierte en estratégica el día que llega una crisis; lleva años convirtiéndose en indispensable, capa a capa, sistema a sistema, hasta que el día que quieres prescindir de ella descubres que la has construido como un pilar, no como un accesorio.


Por qué los grandes apuestan tan fuerte

Hay una pregunta que me hacen constantemente cuando explico el nivel de inversión que están haciendo los grandes actores tecnológicos en IA: ¿por qué tanto? ¿Por qué miles de millones? ¿Por qué la urgencia?

La respuesta corta es que saben algo que la mayoría todavía no ha interiorizado: quien controla la infraestructura de IA controla el siguiente periodo histórico de la humanidad.

No es retórica de ventas. Es la conclusión que emerge cuando miras lo que está ocurriendo sin las capas de narrativa corporativa.

Microsoft ha invertido más de trece mil millones de dólares en OpenAI. Google ha inyectado cantidades similares en su propia infraestructura de IA. Amazon lleva años construyendo los chips y los centros de datos que hacen posible todo esto. Y Anthropic, la empresa que acaba de ser llamada «riesgo para la cadena de suministro nacional» por el Pentágono, tenía un contrato de doscientos millones de dólares con ese mismo Pentágono antes de que todo se complicara.

¿Por qué el Pentágono? ¿Por qué doscientos millones? ¿Por qué la urgencia de una integración tan profunda que ni una orden presidencial directa puede interrumpirla de inmediato?

Porque la IA ya no es una herramienta de productividad. Es infraestructura de decisión. Y la infraestructura de decisión —quien procesa la información, quien sugiere los pasos, quien simula los escenarios posibles— es el poder real.

En El día después de la AGI, traía la conversación entre Dario Amodei y Demis Hassabis en Davos, donde ambos hablaban de los próximos doce a treinta y seis meses como el periodo de transformación más radical de la historia humana. Lo decían con una franqueza que entonces a mucha gente le parecía exagerada. Hoy, viendo lo que está ocurriendo, me parece prudente.


El pulso que nadie esperaba ver así

Hay otro ángulo de esta historia que no quiero dejar pasar, porque tiene que ver con algo que llevamos meses discutiendo en Human-IA.

Anthropic se negó a eliminar dos líneas rojas de su contrato con el Pentágono: no usar Claude para vigilancia masiva de ciudadanos americanos, y no usarlo para armas letales autónomas sin supervisión humana. El Pentágono exigió eliminar esas restricciones para permitir «cualquier uso legítimo». Anthropic dijo que no.

Y aquí está lo notable: una empresa privada de inteligencia artificial, enfrentada a la presión del gobierno más poderoso del mundo, mantuvo su posición ética aunque le costara el contrato, la designación como riesgo de seguridad nacional y los ataques personales del presidente.

Escribí hace unos días en Tener principios tiene un precio sobre este mismo conflicto cuando todavía estaba en su fase previa. Y en La democracia de Anthropic tiene pasaporte americano reflexioné sobre esa entrevista de Dario Amodei en CBS News donde explica por qué no pueden ceder. Lo que ha ocurrido esta semana es la continuación lógica de ese pulso.

No voy a entrar en el debate sobre si el uso de Claude en los ataques contra Irán fue correcto o incorrecto desde una perspectiva geopolítica o ética. No es el debate que me corresponde. Pero sí quiero señalar algo que creo que es importante: el hecho de que una empresa mantenga sus líneas rojas mientras el mundo se acelera a su alrededor es, al menos, digno de análisis.

Porque Amodei, en su entrevista del mismo día de los ataques, dijo algo que merece atención: que seguirían apoyando al gobierno americano hasta que les excluyeran formalmente, y que su tecnología estará disponible hasta que existan sustitutos que puedan hacer las mismas tareas sin las restricciones que Anthropic impone. Está diciendo, en otras palabras: somos tan necesarios que ni siquiera pueden prescindir de nosotros mientras nos prohíben.


La pregunta que nadie quiere hacerse en Europa

Y aquí llegamos a lo que realmente me quitó el sueño esta semana.

Si la IA ya está tan profundamente integrada en los sistemas de decisión estratégica de los Estados Unidos que ni un decreto presidencial puede apagarla de inmediato, ¿dónde están los sistemas europeos equivalentes?

La respuesta que todos conocemos, aunque pocos quieran formularla en voz alta, es que no existen. No al nivel que existe Claude en los sistemas clasificados americanos. No al nivel que existe en los flujos operativos del ejército más poderoso del mundo.

Europa tiene regulación. Europa tiene debates éticos. Europa tiene el AI Act. Lo que Europa no tiene —todavía— es infraestructura propia de IA al nivel estratégico que convierte una herramienta en irremplazable.

En Europa, ¿cuándo plantarás tu árbol? reflexionaba sobre si Europa está mejorando lo que existe o construyendo algo diferente. La pregunta que esta semana añadiría es: ¿está Europa siquiera en la conversación cuando se diseña la infraestructura de decisión del siglo XXI?

Hay un proverbio chino que dice que el mejor momento para plantar un árbol fue hace veinte años. El segundo mejor momento es ahora.

La dependencia de infraestructura de IA no estratégica —es decir, construida por terceros, bajo jurisdicción de terceros, con los valores de terceros— no es solo un riesgo económico. Es un riesgo de soberanía en el sentido más concreto de la palabra. Y si quieres entender la escala real de lo que eso implica en la práctica, WION publicó esta semana un análisis detallado sobre cómo la IA está ya integrada en la cadena de mando militar americana que merece la pena leer despacio.

No hablo de conspiración. Hablo de algo más mundano y más peligroso: la dependencia acumulada. Capa a capa. Sistema a sistema. Hasta que el día que quieres decir que no, descubres que el plazo mínimo para hacerlo es de seis meses. Y eso en el mejor caso.


Lo que esto nos enseña sobre los que miran desde afuera

Hay una tercera lectura de esta historia que me interesa especialmente para el trabajo que hacemos en Human-IA.

Mucha gente todavía piensa en la IA como una herramienta que puedes adoptar o no adoptar según tus necesidades y preferencias. Como si la decisión de integrarla o no en tus sistemas fuera una decisión reversible, un botón que puedes pulsar o dejar de pulsar.

Lo que la historia de CENTCOM y Claude nos muestra es que esa ventana de elección se cierra. No de golpe, no dramáticamente. Se cierra gradualmente, mientras sigues funcionando con tus procesos habituales, mientras la IA se convierte en parte de los sistemas que ya tienes, mientras la dependencia se normaliza hasta que ya no es dependencia: es infraestructura.

Esto vale para los estados. Y vale para las empresas. Y vale, en su escala, para las personas.

En ¿Te está haciendo la IA más capaz o más dependiente? planteaba la distinción entre usar la IA para expandir tu capacidad y usarla de forma que atrofie tus propias facultades. Es la misma distinción, en otra escala, entre construir soberanía tecnológica y construir dependencia estratégica.

La diferencia entre un país, una empresa, o una persona que sale de esta transición con mayor autonomía es la misma: la decisión consciente y anticipada de invertir en capacidad propia, antes de que la necesidad la convierta en urgencia irreversible.

Lo que ocurrió esta semana con Claude y el ejército americano no es solo una anécdota geopolítica. Es un aviso sobre la naturaleza de la tecnología crítica en el siglo XXI: no te anuncia que ha llegado para quedarse. Simplemente, un día, descubres que ya no puedes prescindir de ella. Ni aunque quieras. Ni aunque lo ordene el presidente.

Y mientras tanto, en un laboratorio de Londres, los mismos modelos siguen eligiendo el ataque nuclear en el 95% de los escenarios. Sin horror. Sin pausa. Sin la menor duda.

La IA que aprendía que «la única jugada ganadora es no jugar» solo existió en el cine.

—Saludos, profesor Falken.
—Hola, Joshua.
—Es un juego extraño. La única jugada ganadora es no jugar. ¿Qué tal una partidita de ajedrez?

Eso debería hacernos pensar. A todos.


¿Te ha resultado útil esta reflexión? Puedes compartirla con alguien a quien le importe entender lo que está ocurriendo realmente en el mundo de la IA.

#InteligenciaArtificial #SeguridadNacional #GuerraNuclear #Geopolítica #SoberaníaTecnológica


Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *