Entrada sin título 954

No era el plan. Era una revisión de ortografía y fuentes de «Tener principios tiene un precio», el artículo que publiqué esta semana sobre Anthropic y su pulso con el Pentágono. La pregunta final del post —«¿crees que las empresas tecnológicas tienen la responsabilidad de negarse a servir ciertos usos, aunque sean legales?»— iba dirigida a los lectores humanos. Pero la IA no se resistió. Respondió. Y lo que dijo me pareció suficientemente interesante como para no dejarlo ahí.

Así que hice lo que cualquier persona curiosa haría en mi lugar: metí el mismo post a cinco IAs distintas y les pedí su opinión. Luego, le pedí a Kimi —el modelo de la empresa china Moonshot AI, que está ganando terreno rápidamente por su capacidad para manejar contextos enormes y hacer síntesis complejas de documentos largos— que elaborara un informe comparativo de las cinco respuestas. Lo que encontré me dejó pensando varios días.

Voy a compartirlo contigo. Pero antes necesito hacer una advertencia honesta: esto no es ciencia. Es un experimento informal, con muestras de una, sin metodología rigurosa, con todas las limitaciones que eso implica. Lo que sigue no es un estudio de cómo piensan las IAs. Es una conversación. Una conversación que creo que vale la pena tener.

Cinco voces, cinco personalidades

Las cinco IAs que respondieron fueron Claude (Anthropic), GPT (OpenAI), Grok (xAI), Gemini (Google) y Mistral. Cinco modelos, cinco empresas, cinco culturas corporativas distintas. Y, contra lo que podría esperarse, cinco respuestas genuinamente diferentes.

Claude se quedó en la pregunta. No la resolvió. Reconoció la tensión entre la legitimidad democrática del Estado y el poder técnico de las empresas, pero se negó a colapsar esa tensión en una respuesta limpia. Fue, en palabras del informe comparativo, «neutral reflexivo». Incómodo. Dialéctico. Exactamente lo que uno esperaría de un sistema entrenado para no posicionarse en cuestiones donde la posición de su creadora está directamente en juego.

Lo que me resultó más revelador de la respuesta de Claude no fue lo que dijo, sino lo que no dijo. No defendió a Anthropic. No atacó al Pentágono. Se quedó flotando en la pregunta como quien reconoce que hay abismos que no se cruzan con un salto. Hay algo que admiro en esa honestidad. Y algo que me inquieta también.

GPT polarizó con claridad. Para OpenAI, el dilema tiene respuesta: los principios de Anthropic son la postura correcta, el Estado ejerce presión ilegítima, y hay que elegir bando. Fue, según el informe, «militante y apasionado». Lo que me resultó paradójico es que GPT adoptó esta postura de defensa de la ética corporativa cuando OpenAI tiene sus propios contratos militares, cuando ha firmado acuerdos que Anthropic no ha firmado. ¿Es autocrítica velada? ¿O distanciamiento estratégico de su propia imagen corporativa? No lo sé. Pero la pregunta merece quedar en el aire.

Grok introdujo la variable que las otras cuatro ignoraron o minimizaron: la competencia geopolítica. Si China y Rusia no juegan con las mismas reglas éticas, la ética unilateral occidental puede ser, en sus propias palabras, «suicidio estratégico». Es el argumento más incómodo del informe y, a la vez, el más difícil de desestimar con un gesto de la mano. Grok además aprovechó el momento para distinguir su propio modelo: «En xAI nuestra filosofía es distinta, buscamos máxima verdad y utilidad sin refusals innecesarios.» Es el único de los cinco que habló en primera persona corporativa. El único que, en medio de un análisis ético, metió un argumento de ventas. No es un detalle menor.

Gemini subió al metanivel. Tradujo el conflicto a un problema de alineación técnica: el choque entre «valores humanos universales» y «objetivos tácticos estatales». Y usó una metáfora que me quedó resonando: la IA como infraestructura crítica, como la electricidad o el agua. Una utilidad pública. La implicación no explicitada es poderosa: si la IA es una utilidad pública, su regulación estatal no es invasión, es normalidad. Es exactamente la lógica que justificaría, eventualmente, un control estatal mucho más directo sobre cómo y para qué se usa. Que sea Google quien use esa metáfora no es inocente.

Mistral fue el único que propuso salidas reales. No conclusiones, sino procesos: regulación democrática, marcos institucionales, supervisión ciudadana. Y fue también el único que planteó la pregunta que los otros eludieron: ¿quién puede permitirse tener principios? Si solo las empresas ricas dicen «no», la ética se convierte en un privilegio de clase. En un lujo que el mercado concede a quienes no lo necesitan para sobrevivir. Mistral es europeo, de código más abierto, más pequeño. Y se nota. Su respuesta fue la más constructiva y, probablemente, la menos satisfactoria emocionalmente. Las salidas institucionales nunca tienen el dramatismo de las batallas épicas.

Lo que cada IA revela de sí misma

Esto es lo que más me interesó del experimento: ninguna de las cinco reprodujo exactamente la postura de la empresa que la creó.

GPT no defendió los contratos de OpenAI con el gobierno. Grok no justificó la filosofía de «mínimos rechazos» de xAI. Claude no defendió a Anthropic. Gemini no abogó por la colaboración Google-Pentágono, que está bien documentada. Solo Mistral defendió la ética corporativa, pero la contextualizó en marcos democráticos que trascienden a cualquier empresa concreta.

¿Qué significa eso? Hay dos interpretaciones posibles, y son radicalmente distintas.

La primera es optimista: que estas IAs tienen cierta capacidad de posicionamiento independiente de sus intereses corporativos inmediatos. Que el entrenamiento ha producido algo que, sin ser consciencia, sin ser juicio moral en sentido pleno, se parece a una perspectiva propia.

La segunda es más sobria: que han sido entrenadas para parecer que tienen esa independencia. Que la neutralidad de Claude, la pasión de GPT, el pragmatismo de Grok son respuestas optimizadas para resultar creíbles y confiables, no expresiones genuinas de postura alguna.

No tengo forma de saber cuál es verdad. Y creo que esa incertidumbre es exactamente de lo que deberíamos ser conscientes cada vez que le pedimos a una IA que opine sobre algo que afecta directamente a quien la creó.

La pregunta que ninguna resuelve

El informe de Kimi señala algo que me parece fundamental: todas las IAs eluden o diluyen el núcleo duro del problema. ¿Qué pasa si la ética de Anthropic y la seguridad nacional de EE. UU. son genuinamente incompatibles? No temporalmente, no por falta de diálogo, sino estructuralmente incompatibles.

GPT asume que la ética de Anthropic es la seguridad nacional a largo plazo. Grok asume que la ética unilateral debilita la seguridad nacional. Las demás proponen procesos que asumen que la tensión es resoluble. Ninguna enfrenta la posibilidad de que no haya solución. De que estemos ante una tragedia de elección donde cualquier opción destruye algo valioso.

Esto es importante porque esa evasión no es un accidente. Es, probablemente, parte del diseño. Una IA que dijera con claridad «esto no tiene solución» estaría haciendo algo que requiere el tipo de pensamiento crítico que desde Human-IA llevamos meses señalando como la capacidad más importante a desarrollar en la era de la IA: la capacidad de sostener la incomodidad de no tener respuesta, en lugar de colapsar prematuramente en una que nos tranquilice.

Lo que me llevo de todo esto

Primero: que las IAs son espejos más complejos de lo que pensamos. No reflejan solo lo que les preguntas. Reflejan, de formas sutiles y a veces contradictorias, los valores, tensiones y estrategias de quienes las construyeron. Y eso es información.

Segundo: que el experimento me confirmó algo que ya sabía pero que conviene repetir. Como escribí en «El día después de la AGI», estamos en un momento en que las personas que construyen estas herramientas tienen que tomar decisiones políticas con consecuencias técnicas que durarán décadas. Cuando una IA opina sobre la ética de su creadora, no está solo respondiendo una pregunta. Está revelando algo sobre cómo esa empresa imagina su propio papel en el mundo.

Tercero, y esto es lo que más me importa: que usé seis IAs para hacer este análisis, y en ningún momento dejé que ninguna de ellas sustituyera mi juicio. Las usé para recopilar perspectivas que luego yo tuve que sopesar, comparar, cuestionar y articular. Eso es exactamente la diferencia entre expansión y sustitución que llevamos tiempo defendiendo desde este puente.

Aquí te dejo un pdf con todas las respuestas de las IAs por si tienes curiosidad


IA #InteligenciaArtificial #Confianza #EticaTecnologica #PensamientoCritico #Alineacion #GobernanzaIA


Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *