Todo el mundo lleva dos años exprimiendo la misma naranja. Modelos más grandes, chips más rápidos, infraestructura de inferencia más veloz. Más zumo de la misma fruta. Esta semana alguien plantó un árbol diferente.
Me quedé pensando en esa imagen. Porque hay una pregunta que la historia de la tecnología responde una y otra vez, y que casi nadie formula en el momento correcto: ¿estamos mejorando lo que existe, o estamos construyendo algo diferente?
No es una pregunta retórica. Es la diferencia entre el telar más rápido y el telar de Jacquard. Entre el ensamblador más cómodo y FORTRAN. Entre una calculadora más potente y los relés de cocina de Stibitz. En retrospectiva, todos estos saltos parecen obvios. En el momento en que ocurrieron, eran apuestas incómodas que iban contra toda la inercia acumulada del sector.
Esta semana, en un laboratorio de San Francisco, alguien volvió a formularla.
El taquígrafo y el editor
Todos los grandes modelos de lenguaje que conoces —ChatGPT, Claude, Gemini, Llama— funcionan de la misma manera bajo el capó. Generan texto exactamente como un taquígrafo muy rápido: una palabra, la siguiente, la siguiente, siempre de izquierda a derecha. Cada token queda fijado antes de que aparezca el siguiente. Si el modelo se equivoca en la cuarta palabra de una respuesta, no puede volver atrás. Solo puede seguir hacia adelante y esperar que el error se diluya o que el lector no lo note.
Es un proceso brillante. Funciona extraordinariamente bien. Pero tiene una limitación estructural que no se resuelve con más potencia de cálculo: es secuencial por naturaleza. No puedes paralelizarlo de verdad. Puedes comprar más GPUs, pero el modelo seguirá siendo un taquígrafo, solo que con los dedos más ágiles.
Los modelos de difusión piensan diferente. Y aquí está la metáfora que a mí me resultó más clara cuando lo entendí por primera vez.
Imagina que en lugar de un taquígrafo, tienes un editor. El editor no empieza por la primera palabra y sigue hasta el punto final. El editor empieza con un borrador completo —borroso, impreciso, lleno de ruido— y lo refina en varias pasadas simultáneas. Mejora el principio y el final al mismo tiempo. Ajusta el tono del párrafo tres mientras reescribe la introducción. Ve el texto como una totalidad y lo trabaja como tal.
Eso es, en esencia, lo que hace Mercury 2, el primer modelo de lenguaje de razonamiento basado en difusión que acaba de lanzar Inception Labs. En lugar de generar tokens de uno en uno, parte de ruido y va refinando toda la respuesta en paralelo. El resultado: genera más de 1.000 tokens por segundo —frente a los 200 aproximados de los modelos convencionales— y completa tareas de razonamiento cinco veces más rápido que modelos equivalentes como Claude Haiku o GPT-5 Mini.
Pero la velocidad, con ser impresionante, no es lo que me parece más interesante. Lo que me parece realmente significativo es otra cosa: los modelos de difusión están entrenados para corregir sus propios errores durante el proceso de generación. No después. Durante. La corrección es parte del mecanismo, no un parche añadido encima. A diferencia del taquígrafo, que no puede borrar lo que ya escribió, el editor revisa constantemente el conjunto hasta que decide que está listo.
Y hay algo en eso que merece más reflexión de la que suele recibir en la cobertura técnica. Estamos construyendo máquinas que aprenden a dudar antes de comprometerse con una respuesta. Que se construyen sobre la revisión como principio, no como excepción. Que funcionan, en realidad, más parecido a como pensamos nosotros cuando pensamos bien: boceto, revisión, refinamiento, boceto de nuevo.
Pero hoy no quiero quedarme en la técnica. Lo que me interesa es lo que esta apuesta revela sobre el momento en que estamos.
La naranja y el árbol
En la historia de la tecnología, la mayoría de las revoluciones que parecen grandes son, en realidad, optimizaciones de la misma arquitectura. Más potencia, más velocidad, más capacidad de almacenamiento. La misma naranja, mejor exprimida. Y eso tiene mucho valor: no subestimo la importancia de hacer bien lo que ya existe. Pero las transformaciones que realmente cambian el mapa son las que cambian la arquitectura. Las que plantan un árbol diferente.
Lo que hace interesante el movimiento de Inception no es solo que Mercury 2 sea más rápido. Es que lo es por razones estructurales, no incrementales. No han cogido la arquitectura dominante y la han mejorado: han cuestionado si esa arquitectura era la correcta. Y esa pregunta, formulada en el momento oportuno, es la que abre ventanas.
La apuesta, además, no está sola. Google está desarrollando Gemini Diffusion. Together AI acaba de publicar técnicas que reducen la latencia de los modelos de difusión en texto hasta 14,5 veces. Lo que hace unos meses era una apuesta marginal de un laboratorio académico convertido en startup está siendo validado por los actores más grandes del sector. La ventana no se ha cerrado, pero se está empezando a definir quién va a construir lo que viene.
Y eso me lleva a la pregunta que no puedo dejar de hacerme.
La pregunta que Europa no puede seguir aplazando
Europa lleva años en una posición incómoda respecto a la inteligencia artificial. Somos extraordinariamente buenos regulando tecnología que otros han construido. Tenemos el GDPR, la AI Act, marcos éticos impecables sobre papel. Pero la realidad es que los modelos que regulamos, los datos con los que se entrenan, la infraestructura sobre la que corren y las empresas que los desarrollan están, en su gran mayoría, al otro lado del Atlántico o en Asia.
Eso no es una crítica: es un diagnóstico. Y un diagnóstico que podría cambiar si Europa decide, esta vez, plantar su propio árbol en lugar de subirse al que ya plantaron otros.
No estoy hablando de crear el próximo ChatGPT europeo. Ese barco ya salió, y competir directamente con los modelos frontera de OpenAI o Anthropic con los recursos actuales sería, como mínimo, una distracción costosa. Estoy hablando de algo diferente: apostar por las arquitecturas que todavía no han ganado. Por los enfoques que los grandes laboratorios americanos están desarrollando pero que aún no han cristalizado en monopolios de facto.
Los modelos de difusión para texto están exactamente en ese punto. Son prometedores, demostrados, pero todavía no dominantes. La ventana de entrada no se ha cerrado. Y Europa tiene algo que no tiene Silicon Valley en este campo particular: tradición de investigación matemática de primer nivel, universidades técnicas con décadas de trabajo en teoría de la probabilidad y procesos estocásticos —que son, precisamente, los fundamentos matemáticos de los modelos de difusión— y un mercado interior de 450 millones de personas que podría sostener una industria completa sin depender de la validación exterior.
Lo he comentado en otras ocasiones: el coste de la inteligencia artificial va a seguir cayendo de forma acelerada. Cuando razonar cuesta una fracción de lo que cuesta hoy, el acceso a capacidades de IA sofisticadas deja de ser un privilegio de empresas con presupuestos de infraestructura masivos. Eso democratiza el campo de juego. Pero solo si alguien está ahí para aprovecharlo.
Lo que no queremos repetir
Hay una cosa que me gustaría no ver en esta historia. La he visto demasiadas veces.
Cuando aparece una tecnología estructuralmente nueva, Europa suele reaccionar en dos fases. Primera fase: ignorarla o regularla preventivamente desde la cautela. Segunda fase: cuando ya ha demostrado su potencial, intentar reproducirla con fondos públicos masivos pero tarde, sin el ecosistema de riesgo que la hizo posible en origen.
No funciona así. Y creo que en el fondo lo sabemos.
Lo que hace falta no es un programa de inversión más. Es una mentalidad diferente respecto al riesgo tecnológico, a la velocidad de decisión y, sobre todo, a la disposición a apostar por algo que todavía no ha ganado. Porque cuando algo ya ha ganado, la oportunidad de plantar el árbol ya pasó. Solo queda comprar fruta.
En LLM, automatización, asistente y agente intenté explicar algo que me parece fundamental sobre este momento: la diferencia entre las herramientas que usamos hoy no es solo funcional, es arquitectónica. Y las decisiones arquitectónicas que se toman ahora van a definir quién controla qué durante la próxima década.
Así que la pregunta que me hago, y que creo que Europa debería hacerse con urgencia, no es «¿cómo regulamos los modelos de difusión?» Esa pregunta llegará a tiempo, como siempre. La pregunta es: ¿quién va a construirlos?
Desde el puente, el panorama sigue siendo abierto. La naranja que todo el mundo lleva dos años exprimiendo tiene competencia. Hay gente plantando árboles diferentes.
La pregunta es si nosotros vamos a plantar alguno.
Si este análisis te resultó útil, puedes explorar más sobre las transformaciones arquitectónicas de la IA en La Metamorfosis Digital de 2026 y sobre por qué el pensamiento crítico sigue siendo la ventaja diferencial en Pensamiento crítico vs. Prompts perfectos.
#InteligenciaArtificial #ModelosDeDifusión #ArquitecturasIA #InnovaciónTecnológica #EuropaTech


Deja una respuesta