Hay noticias que uno lee deprisa, entre reuniones, y que merecen que te pares. Que te sientes. Que las dejes reposar un rato antes de opinar.
Esta es una de ellas.
Esta misma semana, Axios ha revelado que el secretario de Defensa Pete Hegseth está «a punto» de clasificar a Anthropic —la empresa creadora de Claude, la inteligencia artificial con la que trabajamos en Human-IA— como un «riesgo para la cadena de suministro». Una etiqueta que, en el lenguaje del Pentágono, no es una advertencia menor. Es la lista negra. La que se reserva para adversarios estratégicos. Para empresas rusas o chinas sospechosas de comprometer la seguridad nacional.
Que yo sepa, San Francisco sigue estando en California.
Para entender cómo se llegó hasta aquí hay que retroceder al 3 de enero, cuando fuerzas especiales estadounidenses capturaron a Nicolás Maduro en Caracas en la llamada Operación Absolute Resolve. Semanas después trascendió que durante esa operación el ejército había utilizado Claude, a través de su alianza con Palantir Technologies. Cuando Anthropic preguntó si su tecnología había sido usada, la reacción del Pentágono fue de irritación profunda. Un alto funcionario dijo literalmente que «se iban a asegurar de que pagaran un precio por forzarles la mano». Y ahí empezó todo.
¿Qué ha hecho Anthropic para merecer eso?
Ha dicho que no. Dos veces, y con claridad.
Primera: no a que su tecnología se use para vigilancia masiva de ciudadanos, cruzando datos de forma automatizada y a escala industrial. Segunda: no a que una IA pueda operar sistemas de armas sin que haya un ser humano tomando la decisión final. Lo que en el ámbito técnico se llama human-in-the-loop, y que en términos más sencillos significa: que nadie muera porque un algoritmo lo decidió solo.
No es una postura radical. Es exactamente lo que esperaríamos de cualquier empresa que dice tomarse en serio el desarrollo responsable de la inteligencia artificial. Es lo que yo esperaría de una empresa como Anthropic, cuyo CEO Dario Amodei se sentó en Davos hace apenas unas semanas a hablar sin cortinas sobre la cuenta atrás hacia la AGI y sobre la responsabilidad que eso implica.
Cuando dices en voz alta que quieres hacer las cosas bien, estás firmando un compromiso que el mundo te va a cobrar.
El Pentágono ya ha pasado la factura.
El problema de fondo: leyes escritas antes de que existiera la herramienta
Aquí está la parte que más me inquieta, y que creo que merece más atención de la que está recibiendo.
El gobierno de EE. UU. argumenta que las empresas de IA deben permitir el uso de sus modelos para «cualquier propósito legal». El propio Hegseth lo dijo sin ambigüedad: el departamento no trabajará con modelos que «no te dejen librar guerras». Suena duro, pero tiene una lógica interna. Una lógica peligrosa, pero coherente.
El problema es que las leyes de vigilancia y las reglas de enganche militar fueron escritas mucho antes de que existiera una tecnología capaz de procesar millones de datos en segundos, identificar patrones de comportamiento a escala de población entera, y construir un «patrón de vida» de cualquier individuo con una precisión que ningún analista humano alcanzaría en toda su carrera. Lo que hoy es técnicamente legal puede ser éticamente devastador a una escala que la ley todavía no ha aprendido ni a imaginar.
No es la primera vez que la herramienta llega antes que la regulación. La historia tecnológica está llena de esos momentos. Pero la brecha entre lo que esta herramienta puede hacer y lo que la sociedad ha decidido conscientemente que debe hacer es más grande que nunca. Y ya tenemos experiencia histórica de lo que ocurre cuando la lógica técnica se aplica sin límites éticos. No es territorio desconocido. Es precisamente por eso que deberíamos ser capaces de reconocerlo antes de entrar en él, no después.
Lo que está en juego, de verdad
Si el Pentágono logra doblegar a Anthropic, el mensaje al resto de la industria es perfectamente claro: los principios tienen un precio, y ese precio es un contrato de 200 millones de dólares y el acceso al mayor comprador tecnológico del planeta.
OpenAI, Google y xAI ya han aceptado condiciones más «flexibles» para sus usuarios militares, sin los cortafuegos que Anthropic mantiene. Si Anthropic cede o es excluida, el estándar del sector se desplazará en esa dirección. No porque nadie lo haya decidido explícitamente, sino porque la presión económica habrá hecho la elección por todos, en silencio, mientras mirábamos hacia otro lado.
Es exactamente el proceso que ocurre cuando dejamos que la presión externa defina nuestros criterios: la herramienta deja de amplificar lo mejor de ti y empieza a arrastrarte hacia donde la corriente es más fuerte. Eso vale para las personas. Vale también para las empresas. Y vale, sobre todo, para las instituciones que deberían protegernos.
Una pregunta que merece pensarse en serio
¿Deben los creadores de tecnología poner límites morales al Estado?
Sé que hay quien dirá que no. Que las empresas privadas no tienen legitimidad democrática para decidir qué puede o no hacer un gobierno elegido. Ese argumento tiene peso real, y no quiero ignorarlo. La rendición de cuentas democrática importa mucho.
Pero también tengo presente que los gobiernos, incluso los democráticos, no siempre han usado el poder tecnológico de formas que sus ciudadanos habrían aprobado de haberlo sabido. La vigilancia automatizada no anuncia lo que está haciendo. No pide permiso. Y cuando la infraestructura ya está construida y los datos ya están acumulados, desmantelar todo aquello es extraordinariamente difícil.
Prefiero vivir en un mundo donde alguien dice que no antes de construirla. Aunque ese «no» le cueste caro. Aunque le llamen «riesgo para la cadena de suministro» por decirlo.
Porque lo que me parece más claro desde este puente es que estamos en un momento en que las decisiones técnicas son decisiones políticas, y las decisiones políticas tienen consecuencias técnicas que durarán décadas. Y que mantener la capacidad de pensar críticamente sobre estos procesos no es un lujo de académicos. Es una responsabilidad de cualquier ciudadano que use estas herramientas, que confíe en ellas, o que, como yo, crea sinceramente que pueden hacer cosas extraordinarias.
Precisamente por eso importa quién las controla. Y bajo qué condiciones. Y quién tiene el derecho de decir que no.
¿Crees que las empresas tecnológicas tienen la responsabilidad —o simplemente el derecho— de negarse a servir ciertos usos, aunque sean legales? Me interesa genuinamente tu perspectiva.


Deja una respuesta