Dario Amodei, CEO de Anthropic โ€”la empresa que ha creado Claude, una de las inteligencias artificiales con las que trabajamos en Human-IAโ€” acaba de conceder una entrevista a CBS News en la que explica el conflicto que estรกn teniendo con el Pentรกgono. Y en un momento de esa entrevista, al hablar de por quรฉ se niegan a colaborar en ciertos usos militares de su tecnologรญa, dice algo que merece que lo leas despacio.

Dice que temen que la IA se utilice para analizar datos privados de ciudadanos americanos comprados por el gobierno. Que la tecnologรญa hace posible eso ahora mismo. Que la ley todavรญa no lo regula. Y que ellos, Anthropic, no lo permitirรกn porque vulnera la Cuarta Enmienda de la Constituciรณn de los Estados Unidos.

Para. Relรฉe eso.

Amodei no estรก diciendo que su tecnologรญa no pueda hacer eso. Estรก diciendo exactamente lo contrario: que sรญ puede. Que es posible ahora mismo. Y que el รบnico freno que existe โ€”el รบnico que รฉl invocaโ€” es una norma constitucional que protege a los ciudadanos de un paรญs concreto. Y ese paรญs no es el tuyo. Ni el mรญo.

Conviene explicar brevemente quรฉ es esa norma, porque Amodei la menciona como si todos supiรฉramos de quรฉ habla. La Cuarta Enmienda de la Constituciรณn americana es el artรญculo que protege a los ciudadanos de Estados Unidos frente a registros e incautaciones arbitrarias por parte del gobierno. En lenguaje del siglo XXI: es la norma que impide que las autoridades americanas espรญen tus comunicaciones, accedan a tus datos o analicen tu vida privada sin una orden judicial que lo justifique. Es, en esencia, el equivalente constitucional del derecho a la intimidad frente al Estado. Una protecciรณn fundamental. Una lรญnea que, segรบn Amodei, Anthropic no cruzarรก.

El problema es lo que esa enmienda no dice. No dice nada sobre ti.

Y justo aquรญ es donde la historia adquiere una capa adicional que a mรญ, personalmente, me ha dejado sin palabras.

Mientras Amodei construรญa su argumento ante las cรกmaras de CBS sobre la protecciรณn de la privacidad, los investigadores de su propia empresa โ€”sรญ, de Anthropicโ€” participaban en la publicaciรณn de un estudio cientรญfico con un tรญtulo que no deja lugar a la ambigรผedad: ยซLarge-scale online deanonymization with LLMsยป. En espaรฑol: desanonimizaciรณn masiva en internet mediante modelos de lenguaje.

La investigaciรณn, desarrollada conjuntamente por investigadores de la ETH Zurich, del grupo de investigaciรณn MATS y de la propia Anthropic, demuestra que los sistemas de inteligencia artificial actuales son capaces de identificar a personas reales detrรกs de perfiles anรณnimos en internet con una precisiรณn y una escala que hasta ahora resultaban imposibles. El sistema analiza tus publicaciones en Reddit, en Hacker News, en foros, y extrae pistas sobre ti: tus hรกbitos de escritura, tus intereses, tu ciudad, tu forma de hablar. Luego cruza esa informaciรณn con LinkedIn, Google, otros perfiles, y construye una identidad. Sin que tรบ lo sepas. Sin que lo autorices.

Los resultados publicados son concretos: en usuarios reales de Hacker News, el sistema identificรณ correctamente a la persona real detrรกs del seudรณnimo el 67% de las veces. Y cuando el sistema decidiรณ hacer una afirmaciรณn concreta, acertรณ el 90% de las ocasiones. Cruzar publicaciones del mismo usuario en Reddit de distintos aรฑos o comunidades diferentes arrojรณ un 68% de รฉxito.

Pero lo que convierte esto en algo cualitativamente diferente a cualquier investigaciรณn anterior sobre privacidad online es el coste. Hacer todo esto โ€”identificar a una persona real detrรกs de un nombre falso, rastrear su identidad, construir su perfilโ€” cuesta cuatro dรณlares. Cuatro. No es un recurso reservado a servicios de inteligencia con presupuestos millonarios. Es algo que cualquiera puede hacer.

Uno de los investigadores principales, Simon Lermen, lo resumiรณ con una claridad que merece ser citada: ยซยฟPodrรญa un equipo de investigadores inteligentes descubrir quiรฉn eres a partir de tus publicaciones? Si la respuesta es sรญ, estos agentes de IA probablemente pueden hacer lo mismo. Y el coste no para de bajar.ยป

Piรฉnsalo. Cada vez que has publicado algo en internet con un nombre falso creyendo que estabas a salvo, cada vez que has usado un seudรณnimo para hablar con libertad de algo que no querrรญas que se asociara a tu nombre real, cada vez que has asumido que el anonimato online te protegรญa… esa asunciรณn ya no es vรกlida. No porque alguien la haya violado en la oscuridad. Sino porque los investigadores de Anthropic han publicado en un paper cientรญfico exactamente cรณmo hacerlo.

La vieja idea de ยซsi uso un nombre falso, estoy seguroยป ha muerto. Y entre quienes firmaron su certificado de defunciรณn estรกn empleados de la empresa cuyo CEO habla en televisiรณn de proteger la privacidad de los ciudadanos: bienvenidos a un nuevo tipo de 1984.

No estoy interpretando nada. Es lo que dijo. Y lo que dijo tiene consecuencias que van mucho mรกs allรก de la pelea entre Anthropic y el Pentรกgono.

Porque hay una ley americana que muy poca gente conoce fuera de los cรญrculos jurรญdicos y tecnolรณgicos, y que cambia por completo el cuadro que Amodei estรก dibujando. Se llama CLOUD Act โ€”Clarifying Lawful Overseas Use of Data Actโ€” y fue aprobada en 2018. Su contenido es tan sencillo como demoledor: obliga a las empresas tecnolรณgicas americanas a entregar datos al gobierno de Estados Unidos independientemente de dรณnde estรฉn almacenados esos datos. En servidores de California, sรญ. Pero tambiรฉn en centros de datos en Irlanda, en Alemania, en Espaรฑa.

No importa dรณnde estรฉ el dato. Importa quiรฉn gestiona el servicio.

Si ese servicio lo gestiona una empresa americana, el gobierno americano puede pedirlo. Y la empresa americana tiene que darlo. Sin notificarte. Sin pedirte permiso. Sin que los tribunales europeos puedan impedirlo.

El caso que llevรณ a crear esa ley es ilustrativo: el FBI reclamรณ a Microsoft los correos electrรณnicos de un ciudadano almacenados en un servidor en Irlanda. Microsoft se negรณ. El caso llegรณ al Tribunal Supremo. Y antes de que fallara, el Congreso aprobรณ el CLOUD Act para dejar claro que sรญ, que Microsoft tenรญa que dar esos datos. Que la localizaciรณn fรญsica del servidor no otorga ninguna protecciรณn jurรญdica real.

El precedente quedรณ establecido. Y no solo afecta a Microsoft. Afecta a Google, a Amazon, a Apple. Y afecta a Anthropic.

A esto hay que aรฑadir que el CLOUD Act no actรบa solo. La FISA โ€”Foreign Intelligence Surveillance Actโ€” y el Patriot Act tambiรฉn exigen a las empresas americanas que entreguen datos a las autoridades, independientemente de dรณnde estรฉn fรญsicamente almacenados. Y en 2025, ante el Senado francรฉs, el director jurรญdico de Microsoft Francia fue explรญcito: Microsoft no puede garantizar que los datos de organismos europeos no sean transferidos al gobierno americano.

No puede garantizarlo. Lo dijo รฉl mismo. En sede parlamentaria.

Asรญ que cuando Amodei construye su argumento รฉtico sobre la Cuarta Enmienda, estรก erigiendo un escudo para ciudadanos americanos mientras la ley americana โ€”esa misma ley bajo la que opera su empresaโ€” estรก diseรฑada para alcanzar los datos de todos los demรกs sin ese escudo. Y mientras sus propios investigadores publican papers cientรญficos demostrando cรณmo identificar a cualquier persona detrรกs de cualquier seudรณnimo online por el precio de un cafรฉ.

Quiero ser justo, como ya intentรฉ serlo cuando saliรณ la primera noticia del conflicto con el Pentรกgono. Anthropic ha hecho algo poco habitual: plantarse. Recibir un ultimรกtum de tres dรญas del Departamento de Defensa y decir que no. Resistir la presiรณn de ser designados como ยซriesgo para la cadena de suministroยป โ€”la lista negra que el Pentรกgono reserva para adversarios estratรฉgicos, para empresas rusasโ€” antes que ceder sus principios. Cosa que no ha hecho OpenAI que ya estรก negociando con el pentagono.

Lo hecho por Anthropic tiene mรฉrito real. No lo descarto.

Pero el mรฉrito no neutraliza la pregunta. La hace mรกs incรณmoda.

Porque si Amodei tiene el coraje de enfrentarse al Departamento de Defensa de los Estados Unidos, si tiene el coraje de ser llamado ยซwokeยป y ยซegoรญstaยป por el presidente de su propio paรญs, si tiene el coraje de decir en televisiรณn nacional que discrepar del gobierno ยซes lo mรกs estadounidense que existeยป… ยฟpor quรฉ ese mismo coraje no alcanza para decir que la vigilancia masiva es รฉticamente inaceptable para cualquier ser humano, en cualquier lugar del planeta?

No lo dice. Y no lo dice porque ese no es su argumento. Su argumento no es รฉtico en sentido universal. Es constitucional en sentido americano.

Y mientras todo esto ocurre, ยฟquรฉ estรก haciendo Europa?

Pues bien, aquรญ viene la segunda parte de la historia, y no es reconfortante.

La Uniรณn Europea aprobรณ en junio de 2024 el AI Act, la primera legislaciรณn integral del mundo para regular la inteligencia artificial. Un marco ambicioso, pensado para proteger los derechos fundamentales de los ciudadanos europeos frente a los usos mรกs peligrosos de la IA. Se aplaudiรณ en todo el mundo como un ejemplo de regulaciรณn responsable.

El problema es que esa ley lleva retraso. La aplicaciรณn plena estaba prevista para agosto de 2026. Pero en noviembre de 2025, la Comisiรณn Europea propuso, a travรฉs de lo que se llama el paquete Digital Omnibus, aplazar los plazos mรกs importantes hasta diciembre de 2027. La razรณn oficial: reducir la carga administrativa para las empresas. La razรณn no oficial, que cualquier observador atento puede leer entre lรญneas: el miedo a quedar aรบn mรกs rezagados respecto a Estados Unidos y China en la carrera de la IA, o quizรกs que las empresas americanas consigan que no se implante o lo haga una versiรณn capada.

Esa propuesta, a fecha de hoy, todavรญa no ha sido aprobada por el Parlamento Europeo y el Consejo. Estamos en tierra de nadie regulatoria. Y mientras Europa debate si aprobar el aplazamiento de sus propias normas de protecciรณn, las empresas americanas operan en nuestro territorio bajo sus propias leyes, que son las que son.

Solo el 13,5% de las empresas europeas usa inteligencia artificial. En Estados Unidos la adopciรณn es mucho mayor. Y la respuesta de Europa ante esa brecha ha sido, hasta ahora, ralentizar la regulaciรณn con la esperanza de que asรญ la industria crezca mรกs rรกpido. Como si la falta de protecciones fuera la causa del retraso tecnolรณgico, y no la falta de inversiรณn, de infraestructura y de visiรณn estratรฉgica.

Como preguntรฉ hace unos dรญas, Europa: ยฟcuรกndo plantarรกs tu รกrbol?

El cuadro completo, ahora que tenemos todas las piezas, es el siguiente:

Amodei admite que la tecnologรญa de Anthropic puede analizar datos privados de personas a escala masiva. El รบnico freno que รฉl garantiza explรญcitamente es la Cuarta Enmienda, que protege a los ciudadanos americanos frente al registro arbitrario del Estado. Los propios investigadores de Anthropic han publicado un paper demostrando que esa tecnologรญa puede desanonimizar a cualquier persona en internet por cuatro dรณlares. La CLOUD Act obliga a Anthropic โ€”como a cualquier empresa tecnolรณgica americanaโ€” a entregar datos al gobierno de Estados Unidos aunque esos datos estรฉn almacenados en Europa, sin necesidad de notificar a los afectados. Y la legislaciรณn europea que deberรญa protegernos frente a todo esto sigue sin desplegarse plenamente, con sus plazos mรกs importantes aplazados hasta 2027 como mรญnimo.

Permรญteme hacer la pregunta con toda la crudeza que merece:

Si el gobierno americano quisiera analizar los datos que tรบ has compartido con Claude โ€”tus conversaciones, tus proyectos, tus reflexionesโ€” almacenados en servidores que pueden estar en cualquier lugar del mundo, ยฟquรฉ te protegerรญa?

No la Cuarta Enmienda: esa enmienda no te cubre a ti. No el AI Act europeo, aรบn sin dientes. Y posiblemente tampoco el GDPR, cuya aplicaciรณn frente a requerimientos de la ley americana ha demostrado ser, en la prรกctica, mucho mรกs dรฉbil de lo que parece sobre el papel.

Esto conecta directamente con algo que me inquietรณ hace unos meses: cuando le preguntรฉ a Gemini por un libro y me devolviรณ mi direcciรณn, lo que paguรฉ, el nรบmero de seguimiento del envรญo. Datos que nunca le habรญa dado directamente. Escribรญ entonces que deberรญamos ser mรกs cuidadosos con quiรฉn compartimos nuestra informaciรณn.

Pero lo que la entrevista de Amodei me obliga a ver es que el problema es mรกs estructural y mรกs grave de lo que pensaba entonces. No se trata solo de quรฉ datos compartimos voluntariamente. Se trata de quiรฉn decide quรฉ se puede hacer con ellos, bajo quรฉ marco legal, y a quiรฉn protegen esas decisiones cuando llega el momento de verdad.

Y aquรญ es donde el discurso sobre la democracia me resulta mรกs difรญcil de digerir.

Amodei dice que se considera un patriota. Que quiere defender los valores democrรกticos frente a China y Rusia. Que Anthropic estรก del lado de la libertad. Todo eso puede ser completamente sincero. Y simultรกneamente puede ser verdad que esa misma tecnologรญa, bajo esos mismos principios, no ofrece a los ciudadanos de las democracias ยฟaliadas? ninguna protecciรณn equivalente a la que sรญ ofrece a los americanos.

No somos adversarios. Se supone que compartimos valores, sistemas polรญticos, prensa libre, separaciรณn de poderes. Pero cuando se trazan las lรญneas rojas, no somos el sujeto de protecciรณn.

Como seรฑalamos cuando hablamos de los genios detrรกs de estas tecnologรญas, detrรกs de los modelos mรกs poderosos del planeta siguen estando personas con sus propias lealtades y sus propias constituciones. La de Amodei es, en este asunto, perfectamente legible.

No escribo esto para dejar de usar Claude. En Human-IA seguimos trabajando con ella y seguiremos haciรฉndolo. Pero hay una diferencia fundamental entre usar una herramienta conociendo con exactitud cuรกl es tu posiciรณn en el esquema de quienes la crearon, y usarla creyendo ingenuamente que sus creadores te incluyen en su perรญmetro de protecciรณn cuando la propia arquitectura legal de su paรญs garantiza lo contrario.

Conocer esa diferencia es, exactamente, de lo que trata el pensamiento crรญtico que llevamos meses defendiendo desde aquรญ.

Y tiene una consecuencia prรกctica muy concreta: si queremos marcos de protecciรณn que nos incluyan a nosotros, tenemos que construirlos nosotros. No podemos delegarlos en empresas cuyos compromisos รฉticos estรกn redactados para otros, operando bajo leyes diseรฑadas para alcanzar a todos mientras protegen a los suyos.

Solo quien despierta puede soรฑar de verdad. Y despertar, en este caso, comienza por entender algo que Amodei ha dejado explรญcito, aunque pocos lo hayan subrayado:

Su tecnologรญa puede vigilarte. Sus propios investigadores han publicado cรณmo desanonimizarte por el precio de un cafรฉ. El รบnico freno garantizado protege a otros. Y la ley del paรญs donde esa tecnologรญa naciรณ puede obligar a su empresa a entregar tus datos sin que tรบ lo sepas, sin que puedas impedirlo, y mientras Europa termina de decidir si aplaza un aรฑo mรกs sus propias protecciones.

A menos, claro, que tengas pasaporte americano (y ni eso).

#IA #InteligenciaArtificial #Privacidad #Vigilancia #Anonimato #Desanonimizacion #Anthropic #ClaudeAI #DarioAmodei #CLOUDAct #FISA #PatriotAct #CuartaEnmienda #DerechosDigitales #SoberaniaDigital #Europa #AIAct #GDPR #Ciberseguridad #PensamientoCritico #Tecnologia #Democracia #Geopolitica #BigTech #DatosPersonales


Una respuesta a «La democracia de Anthropic tiene pasaporte americano»

  1. […] tiene un precio sobre este mismo conflicto cuando todavรญa estaba en su fase previa. Y en La democracia de Anthropic tiene pasaporte americano reflexionรฉ sobre esa entrevista de Dario Amodei en CBS News donde explica por quรฉ no pueden […]

Deja una respuesta

Tu direcciรณn de correo electrรณnico no serรก publicada. Los campos obligatorios estรกn marcados con *