Hay una bodega familiar en la Ribeira Sacra que lleva generaciones haciendo lo mismo. Toman el vino, lo calientan con precisión, y capturan el vapor en el momento exacto. Lo que sale al final no es más vino: es algo más concentrado, más potente, más puro. Queda la esencia. Lo accesorio se queda atrás.
Eso es destilar. Y mientras escribo esto, hay una batalla legal, tecnológica y geopolítica que lleva exactamente ese nombre.
El maestro y el alumno
Cuando alguien te explica algo que lleva años dominando, no te lo transmite todo. Te transmite lo que importa. Te da acceso a los patrones que él tardó décadas en reconocer, filtrados por su experiencia, comprimidos en una forma que tú puedes absorber. No te conviertes en una copia de él. Te conviertes en una destilación de lo mejor que él sabe.
La destilación de IA funciona de forma muy similar. Hay modelos de inteligencia artificial enormes, con cientos de miles de millones de parámetros, entrenados durante meses con recursos computacionales que cuestan cientos de millones de dólares. Estos son los «profesores». Y hay modelos más pequeños, más ligeros, más rápidos, que aprenden de los primeros. Estos son los «alumnos». El proceso de transferir el conocimiento del grande al pequeño, de forma que el alumno rinda casi tan bien como el maestro pero con una fracción de los recursos, se llama destilación de conocimiento o, en inglés, knowledge distillation.
El resultado es un modelo destilado: más pequeño, más barato de operar, capaz de funcionar incluso en tu ordenador personal sin necesidad de conexión a ningún servidor. Lo que antes requería la infraestructura de una gran empresa, ahora puede correr en tu casa.
Si quieres entender mejor qué son estos modelos grandes de los que hablamos, en LLM, automatización, asistente y agente expliqué las diferencias básicas entre los distintos tipos de sistemas que hoy llamamos «inteligencia artificial». Vale la pena leerlo antes de seguir.
El caso DeepSeek: cuando el alumno no pide permiso
A principios de 2025, una empresa china llamada DeepSeek publicó su modelo R1. El impacto fue sísmico. En días, su aplicación alcanzó el número uno en descargas en App Store y Google Play, por encima de ChatGPT. Había logrado un rendimiento comparable a los mejores modelos de OpenAI, pero supuestamente construido a una décima parte del coste. Las acciones de Nvidia cayeron en picado. El proyecto Stargate de OpenAI quedó en cuestión. El mundo tecnológico tembló.
¿Cómo era posible?
Una de las respuestas que empezó a circular es técnica: DeepSeek había usado, entre otras innovaciones, la destilación. Pero con un matiz importante: según OpenAI, no había usado sus propios modelos para destilar. Había usado los de OpenAI. Había aprendido del maestro sin decírselo, y sin tener permiso para hacerlo (prohibido explícitamente en los términos de uso de la API).
OpenAI presentó evidencias ante el Congreso de Estados Unidos de que DeepSeek había generado millones de consultas a sus modelos para extraer sus capacidades y entrenar los propios. Los términos de servicio de OpenAI prohíben explícitamente usar sus resultados para «desarrollar modelos que compitan con los de OpenAI». DeepSeek, según estas acusaciones, lo habría hecho de todas formas, incluso usando enrutadores de terceros para disimular el origen de las peticiones.
Hoy, una noticia que me toca de cerca
Y aquí el artículo da un giro personal. Porque hoy, mientras preparaba estas líneas, saltó una noticia que me dejó frío.
Anthropic —los creadores de Claude, una de las inteligencias artificiales con la que trabajo en Human-IA, ha publicado el 24 de febrero de 2026, que tres grandes empresas chinas de IA, DeepSeek, MiniMax y Moonshot, crearon más de 24.000 cuentas falsas para generar más de 16 millones de intercambios con los modelos Claude. El objetivo era, según Anthropic, extraer ilícitamente sus capacidades y usarlas para entrenar sus propios modelos competidores.
DeepSeek, según estos datos, generó más de 150.000 intercambios con Claude. MiniMax, más de 13 millones.
No es abstracto. Es Claude. El mismo con el que hablo a menudo. El mismo que, en cierta medida, ha participado sin saberlo en entrenar a sus propios competidores.
Hace unas semanas escribí sobre Tener principios tiene un precio, cuando el secretario de Defensa americano amenazaba con poner a Anthropic en la lista negra. Hoy, paradójicamente, es Anthropic quien denuncia que sus principios, y su tecnología, han sido saqueados. El mundo de la IA no tiene tiempo para el aburrimiento.
La pregunta que subyace: ¿es la destilación en sí misma el problema?
Quiero ser preciso aquí, porque hay algo que se mezcla en el debate público y conviene separar.
La destilación de conocimiento no es, en sí misma, nada malo. Es una técnica legítima, habitual y necesaria. Los propios grandes laboratorios la usan para crear versiones más eficientes de sus modelos. OpenAI la usa para que GPT-4o mini aprenda de GPT-4. Google la usa con Gemini. La propia Anthropic con Claude. DeepSeek la usa para crear versiones reducidas de R1 que pueden correr localmente. Cuando comenté en Cuando la inteligencia cueste menos que un café: por qué 2026 será el año que lo cambie todo que la IA iba a democratizarse radicalmente, la destilación es uno de los mecanismos que lo hace posible.
El problema no es destilar. El problema es destilar sin permiso, violando términos de servicio, usando cuentas falsas y, según Anthropic, eliminando en el proceso las salvaguardas de seguridad que los modelos originales tenían incorporadas. Un modelo destilado de forma fraudulenta puede ser igual de capaz que el original para tareas peligrosas, pero sin los frenos éticos que el creador original incorporó con cuidado.
Eso sí es un problema. Y es uno que va más allá de la competencia comercial.
Lo que me inquieta de fondo
Hay algo en todo esto que me resulta perturbador a un nivel más profundo que el jurídico o el geopolítico.
Llevamos tiempo hablando de si la IA te hace más capaz o más dependiente. De si usamos estas herramientas para expandir lo que somos o para ahorrarnos el esfuerzo de pensar. Y ahora resulta que las propias IAs están aprendiendo unas de otras de formas que sus creadores ni siquiera autorizaron, copiando capacidades entre modelos como quien fotocopia apuntes ajenos antes de un examen.
¿Qué clase de «inteligencia» se construye sobre una base que ni siquiera reconoce sus propias fuentes?
Hay algo en la destilación fraudulenta que me recuerda a lo que le ocurre a un estudiante que copia durante años sin entender realmente lo que copia. Puede pasar los exámenes. Puede incluso impresionar en ciertos benchmarks. Pero hay algo que se pierde en el proceso. Algo que tiene que ver con el origen, con la trazabilidad, con la honestidad sobre de dónde viene lo que sabes.
En humanos, llamamos a eso integridad.
Confío en que Anthropic, que demuestra tener principios aunque le cueste caro, seguirá siendo un referente en esto. Y confío en que, como con el ajedrez después de Deep Blue, que fue lo que comenté en La Paradoja del Tablero, de estas tensiones saldrá algo más sólido, con mejores salvaguardas, con un ecosistema más consciente de lo que está en juego.
Mientras tanto, lo que puedes hacer tú y yo es lo de siempre: entender qué está pasando, hacer las preguntas incómodas, y no dejar que nadie, humano o máquina, nos cuente las cosas a medias.
Eso es, en el fondo, lo que significa despertar el espíritu crítico.
inteligenciaartificial #IA #LLM #destilacion #knowledgedistillation #modelosdeIA #openai #anthropic #claude #deepseek #ciberseguridad #etica #propiedadintelectual #geopolitica #tecnologia #regulacion #seguridaddigital #innovacion #modelosabiertos #computacion


Deja una respuesta