No soy buen jugador de mus, pero disfrutaba jugando con mi padre, recuerdo una tarde de verano en la que llevábamos un buen rato de partida. Él era de esas personas que no solo juegan las cartas que tienen: juegan al jugador que tienen enfrente. Me conocía tan bien que anticipaba mis señas, mis dudas, mis momentos de audacia mal calculada. Y yo lo sabía. Sabía que él sabía. En algún punto de la partida, eso me bloqueó. Ya no estaba eligiendo según mis cartas. Estaba eligiendo según lo que creía que él pensaba que yo elegiría. La decisión ya no era mía del todo. La compartía con su modelo de mí.

Llevo semanas pensando en ese recuerdo a propósito de algo que formuló un filósofo americano llamado William Newcomb en 1960 y que sigue sin resolverse.


El problema que nadie puede resolver del todo

Te lo cuento despacio, porque merece la pena entenderlo bien antes de ver adónde va.

Imagina que hay delante de ti dos cajas. La caja A es transparente y puedes ver lo que hay dentro: mil euros. La caja B es opaca. Un ser —llamémosle el Predictor— te dice que la ha llenado con un millón de euros si predijo que ibas a elegir solo la caja B. Si predijo que ibas a coger las dos cajas, la dejó vacía.

El Predictor tiene un historial impresionante: casi nunca se equivoca.

Ahora tienes que decidir. ¿Coges solo la caja B, o coges las dos?

La lógica más inmediata dice: coge las dos. El dinero ya está o no está dentro de la caja B. Lo que hagas ahora no puede cambiarlo. Si el millón está ahí, te llevas un millón y mil. Si no está, te llevas mil en lugar de nada. En ambos casos, coger las dos siempre te da más. Los economistas llaman a esto «dominancia»: es la opción racionalmente superior independientemente del estado del mundo.

Y sin embargo, hay algo que falla en ese razonamiento. Porque en la práctica, quienes cogen solo la caja B casi siempre se van con el millón. Y quienes cogen las dos casi siempre se van con mil euros y la sensación de haber sido muy listos.

Los filósofos llevan décadas divididos. Los "one-boxers" confían en el Predictor y se llevan el millón. Los "two-boxers" confían en su lógica y se llevan los mil euros. Robert Nozick, que introdujo el problema al mundo académico, lo formuló así: «Sé de gente muy inteligente en cada bando.» Y eso lo dijo hace más de cincuenta años.


La pregunta que el problema esconde

Pero el problema de Newcomb no es solo un acertijo sobre cajas y dinero. Es una pregunta sobre qué tipo de agente eres tú.

Si el Predictor puede anticipar tu decisión con fiabilidad casi absoluta, eso significa que tus elecciones no son tan impredecibles como crees. Que hay algo en ti —en tu historia, en tus patrones, en tu forma de razonar— que deja una huella reconocible. Que alguien —o algo— que te haya estudiado el suficiente tiempo puede modelarte con bastante precisión.

Los "two-boxers" se consuelan diciéndose que actúan por principios lógicos universales, independientemente de lo que el Predictor piense. Hay algo casi heroico en esa postura. Soy dueño de mis decisiones aunque las hayas anticipado.

Los "one-boxers" dicen algo más incómodo: si coger solo la B es lo que los millonarios hacen, y el Predictor sabe que soy el tipo de persona que coge solo la B, entonces soy ese tipo de persona. La coherencia no es una trampa. Es una identidad.

Y ahí está la cuestión que no me deja en paz: ¿cuánto de lo que llamo «decisión» es en realidad la expresión de un carácter que otros pueden leer mejor que yo?

Lo llevo dando vueltas desde que empecé a escribir sobre el impacto de la IA en nuestra capacidad de elegir. Porque lo que entonces planteé en términos de dependencia cognitiva, el problema de Newcomb lo replantea en términos mucho más radicales: no es solo que la IA decida por ti si se lo permites. Es que, si te conoce bien, puede anticipar lo que vas a decidir antes de que lo decidas.


El Predictor ya existe

Y aquí es donde el experimento mental deja de ser mental.

Hace unos días leí una investigación de Simon Lermen que me dejó con esa sensación incómoda de quien encuentra el nombre exacto para algo que llevaba tiempo intuyendo. El estudio se llama Large-Scale Online Deanonymization with LLMs y lo que demuestra es sencillo de enunciar y difícil de encajar: los agentes de IA pueden identificar quién eres a partir de tus publicaciones anónimas en internet, con alta precisión, y a una escala que se acerca ya a la de plataformas enteras.

El método no tiene nada de mágico. El sistema toma unos cuantos comentarios anónimos en Hacker News, Reddit o transcripciones de entrevistas y, a partir de ellos, infiere dónde vives, a qué te dedicas, cuáles son tus intereses. Luego busca. Cruza plataformas. Razona. Y en la mayoría de los casos, encuentra a la persona.

No porque tengas una forma de escribir extraordinariamente peculiar. Sino porque cada detalle que das —tu ciudad, tu profesión, un congreso al que fuiste, una afición nicho— forma una combinación que, en la práctica, es única. La investigación lo formula así: esa combinación es con frecuencia una huella dactilar. Y añade algo que conviene leer con calma: la capacidad de hacer esto a escala masiva solo va a mejorar, mientras que el coste solo va a bajar.

Vivimos rodeados de Predictores. No llevan capa ni tienen nombre mitológico, pero funcionan exactamente igual: han ingerido suficientes datos sobre tu comportamiento como para modelar tus decisiones con una precisión que debería inquietarnos más de lo que nos inquieta.

El algoritmo que te muestra un anuncio antes de que hayas buscado lo que quieres comprar. El sistema de recomendación que sabe qué vas a ver el viernes por la noche. El modelo de scoring que predice si vas a devolver un préstamo basándose en cómo mueves el ratón. La IA que identifica quién eres a partir de cinco comentarios que creías anónimos.

No son oráculos. No son infalibles. Pero son lo más parecido a un Predictor que la humanidad ha construido hasta ahora. Y como señalé en otro post sobre la delegación de deseos, el riesgo no es solo que la IA se equivoque. El riesgo es que acierte tanto que dejemos de cuestionar el acierto.


Decidir cuando te observan

Pero hay algo que el problema de Newcomb captura y que los debates sobre algoritmos suelen perderse: la experiencia subjetiva de saber que eres predecible.

Porque cuando yo lo supe, aquella tarde jugando al mus con mi padre, no me liberé. Me bloqueé. Empecé a tomar decisiones pensando en su modelo de mí, intentando ser impredecible, lo cual —paradójicamente— era perfectamente predecible para él, que me conocía lo suficiente como para anticipar también ese movimiento.

Eso mismo pasa ahora, a una escala que habría parecido ciencia ficción hace veinte años. Las personas que saben que un algoritmo les va a recomendar contenido empiezan a consumir de forma diferente. Los que saben que sus comentarios pseudónimos pueden llevar a quien los lea —o a una IA que los procese— directamente hasta ellos, empiezan a callarse. O a hablar de otra manera. O a no hablar.

Actuamos para el Predictor. Y al actuar para él, le damos más datos para predecir mejor. Es un bucle que se cierra sobre sí mismo.

Lo que me parece más perturbador no es que la IA nos conozca. Es que, al conocernos, cambia lo que somos. O, más precisamente, cambia lo que nos atrevemos a ser. Porque cuando sabes que te observan, la autenticidad tiene un coste que no todas las personas están dispuestas a pagar. Lo toqué de cerca cuando escribí sobre el agotamiento que produce el uso intensivo de IA: hay una fatiga específica que viene no de usar la herramienta, sino de relacionarte con algo que te modela mientras lo usas.

Y hay algo más, que el estudio de Lermen deja en el aire sin nombrarlo: si el anonimato en internet es ya una ficción, ¿qué hacemos con los espacios donde la gente necesita hablar sin que su nombre esté en juego? Los pacientes que buscan información médica sin querer que eso aparezca en su perfil. Los trabajadores que comentan sobre su empresa sin querer represalias. Los ciudadanos de países con gobiernos autoritarios que expresan opiniones que en otro contexto serían peligrosas. Para todos ellos, la distancia entre un experimento mental filosófico y una amenaza concreta es ya muy pequeña.


Entonces, ¿qué tipo de agente eres?

Vuelvo a la pregunta central del problema de Newcomb.

No creo que la respuesta correcta sea ser "one-boxer" o "two-boxer". Creo que la pregunta importante es si sabes cuál eres y por qué. Porque los que pierden, en la vida y en el experimento, no son los que eligen mal. Son los que eligen sin haberse preguntado desde qué principios están eligiendo.

El Predictor —el de Newcomb, el de los algoritmos, el de los sistemas de desanonimización— no necesita que renuncies a tu autonomía. Solo necesita que nunca te la hayas tomado del todo en serio.

Hay algo que me parece esperanzador en este punto, aunque pueda sonar contraintuitivo: la mejor defensa frente a un sistema que te predice no es ser impredecible. Es ser coherente de una manera que tú mismo hayas elegido. Conocerte mejor de lo que el modelo te conoce a ti. Saber qué tipo de agente eres antes de que el algoritmo lo decida por ti.

En Human-IA llevamos tiempo diciendo que la IA puede expandir el potencial humano o puede sustituirlo, según cómo la usemos. La paradoja del tablero de ajedrez lo ilustra bien: la máquina que "nos derrotó" resultó ser nuestro mejor entrenador, porque nos obligó a conocernos mejor a nosotros mismos. A entender cómo pensamos. A ser más conscientes de nuestros patrones.

Quizás el Predictor hace lo mismo, si nos relacionamos con él desde la lucidez y no desde la comodidad.

La caja opaca lleva décadas esperando. Lo que está dentro depende, en parte, de quién decides ser antes de abrirla.

El Predictor no necesita que te rindas. Solo necesita que no te hayas preguntado todavía qué tipo de persona eres.

#problema-de-Newcomb #inteligencia-artificial #filosofía-IA #predicción #autonomía-digital #algoritmos #decisiones #privacidad-internet #desanonimización #IA-predictiva #psicología-cognitiva #ética-IA


Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *