En los últimos días me han mandado el mismo artículo cuatro personas distintas. Cuatro. Gente que normalmente no me envía enlaces sobre tecnología. Un amigo que se acaba de jubilar. Una exalumna que ahora dirige un departamento de marketing. Un compañero de la radio. Y una maestra de primaria y cuyo interés habitual por la IA oscila entre nulo y educadamente escéptico.
Todos me escribieron variaciones de lo mismo: «Ángel, ¿has leído esto? ¿Lo que dice es verdad?»
El artículo se titula Something Big Is Happening y lo firma Matt Shumer, CEO de HyperWrite, un emprendedor de inteligencia artificial con seis años construyendo empresas en el sector. Lo escribió, según dice, para su familia y amigos, para la gente que quiere y que sigue preguntándole «¿qué es eso de la IA?» mientras él lleva meses dándoles la respuesta educada, la versión de cóctel, en lugar de lo que realmente piensa.
Y lo que realmente piensa es que estamos viviendo un cambio comparable al que trajo el COVID en febrero de 2020, cuando la mayoría de nosotros todavía pensábamos que aquello era «algo que pasaba en China».
Lo publicó en X el 9 de febrero. En menos de cinco días, superó los 80 millones de visualizaciones. Fortune lo reprodujo como columna de opinión. CNBC le entrevistó. Le Grand Continent lo analizó en su edición en español. El País lo recogió hoy mismo. Medios de América Latina, Europa y Asia lo tradujeron, resumieron y debatieron. Incluso el propio Shumer reconoció en CNBC que si hubiera sabido el alcance que iba a tener, habría reescrito algunas partes.
Y aquí hay algo que merece la pena detenerse a pensar, antes incluso de entrar en lo que dice el artículo: ¿por qué ha viajado tan lejos?
Porque no es un paper académico con datos revolucionarios. No contiene ninguna revelación que los que seguimos este mundo de cerca no supiéramos ya. Las cifras de METR, las declaraciones de Amodei, el hecho de que la IA esté ayudando a construirse a sí misma: todo eso lo hemos contado aquí, en El día después de la AGI, en Cuando la inteligencia cueste menos que un café, en decenas de posts de esta sección. No es información nueva.
Lo que Shumer ha hecho, y por eso ha llegado donde ha llegado, es algo mucho más simple y mucho más poderoso: ha dicho en voz alta, con nombre y apellidos, lo que muchos insiders llevan meses pensando pero solo compartían en conversaciones privadas. Ha roto la «versión de cóctel». Ha escrito lo que él describe como la versión honesta, la que suena a que has perdido la cabeza, pero que es la que cree que la gente que le importa merece escuchar.
Y ha funcionado porque está escrito como una carta a personas que no trabajan en tecnología. No como un análisis sectorial. No como un white paper. Como una conversación con tu cuñado en la cena del domingo. Y por eso mi prima —que nunca me ha preguntado qué es un LLM— me lo mandó preguntando si era verdad.
Eso, en sí mismo, ya es un dato. Cuando un texto sobre IA escrito por un techie en su blog personal llega a personas que normalmente no leen sobre IA, algo ha cambiado en la conversación pública. El tema ha dejado de ser «cosa de frikis» y ha entrado en territorio de preocupación general. Y eso es exactamente lo que venimos diciendo que iba a pasar.
Pero que haya llegado lejos no significa que diga todo lo que necesitas escuchar. De hecho, creo que le falta lo más importante.
La brecha que nadie quiere ver
Shumer describe cómo el 5 de febrero de 2026, dos modelos nuevos de inteligencia artificial —GPT-5.3 Codex de OpenAI y Opus 4.6 de Anthropic— cambiaron su trabajo de forma definitiva. Ya no necesita hacer el trabajo técnico de su empresa. Describe lo que quiere en lenguaje normal y la IA lo construye. No un borrador que corregir: el producto terminado. Se va cuatro horas, vuelve, y está hecho. Mejor de lo que él lo habría hecho.
Y luego hace un punto demoledor que cualquiera que haya intentado explicar la IA a alguien reconocerá al instante: la mayoría de la gente evalúa la inteligencia artificial basándose en una experiencia que ya no existe.
Probaron ChatGPT en 2023. Les pareció interesante pero limitado. Se inventaba cosas. Decía tonterías con aplomo. Y concluyeron: «vale, tiene potencial, pero no es para tanto». Desde entonces no han vuelto a mirar. Y desde entonces, dice Shumer, en términos de IA eso es historia antigua.
Y aquí necesito ser honesto contigo, lector: tiene razón.
Hay una organización llamada METR que mide algo fascinante: la duración de las tareas que una IA puede completar de forma autónoma, medida por el tiempo que esa misma tarea le llevaría a un experto humano. Hace un año, la respuesta era unos diez minutos. Luego fue una hora. Luego varias horas. Y esa cifra se duplica aproximadamente cada siete meses, con datos recientes que sugieren una aceleración a cada cuatro. No son estimaciones vagas: son mediciones reales, publicadas, con metodología rigurosa, verificables.
Esto me recuerda algo que escribí hace semanas en Respuesta al comentario: «Yo no uso IA»: la distancia entre lo que la gente cree que es la IA y lo que realmente puede hacer hoy es probablemente la brecha de percepción más peligrosa de nuestro tiempo. No porque la IA sea peligrosa en sí misma, sino porque esa ignorancia nos deja sin capacidad de decisión.
Y Shumer lo expresa de una manera que le escuché decir a un managing partner de un gran bufete de abogados: cada dos meses, la IA se vuelve significativamente más capaz para su trabajo. Si sigue en esa trayectoria, espera que pueda hacer la mayor parte de lo que él hace. Y lleva décadas de experiencia.
Juzgar la IA por la versión gratuita de 2024, dice Shumer, es como evaluar el estado de los smartphones usando un teléfono de tapa. Y creo que la comparación se queda corta. Es como opinar sobre la aviación después de haber visto fallar al primer prototipo de los hermanos Wright y haber decidido que eso de volar no iba a ninguna parte.
Lo hemos visto una y otra vez en la historia de la tecnología. La gente se queda con la primera impresión y construye certezas sobre arena. Y luego el mundo cambia debajo de sus pies mientras ellos siguen convencidos de que lo que vieron hace dos años sigue siendo verdad.
Lo que Shumer dice y por qué importa escucharlo
El artículo avanza con datos concretos que merecen atención. Shumer señala que Dario Amodei, CEO de Anthropic —la empresa que fabrica Claude, uno de los principales competidores de ChatGPT—, ha predicho públicamente que la IA eliminará el 50% de los empleos de cuello blanco de nivel inicial en uno a cinco años. Y que muchos dentro de la industria piensan que está siendo conservador.
No estamos hablando de un bloguero con ganas de generar clics. Estamos hablando de las personas que construyen estos sistemas. Las mismas que, como contamos en El día después de la AGI, describían en Davos un horizonte de 12 a 36 meses para una inteligencia artificial «sustancialmente más inteligente que casi todos los humanos en casi todas las tareas».
Shumer también señala algo que pocos fuera del sector comprenden: la IA ya está ayudando a construir la siguiente versión de sí misma. OpenAI lo dijo explícitamente en la documentación técnica de GPT-5.3 Codex: «Es nuestro primer modelo que fue instrumental en su propia creación». Amodei confirma que la IA ya escribe «gran parte del código» en Anthropic. No es ciencia ficción. Es la documentación técnica de esta semana.
Todo esto es real. Todo esto está pasando. Y si solo te quedas con eso, el artículo de Shumer cumple su función: despertarte.
Pero yo necesito hacerte una pregunta distinta.
La pregunta que Shumer no hace
El artículo termina con un apartado que en esencia dice: «Tus sueños están más cerca que nunca». Y tiene razón. Barreras que eran infranqueables hace un año —crear una app, producir contenido audiovisual, aprender una habilidad nueva— han caído o están cayendo.
Lo sé porque yo mismo lo he vivido. Hace pocos días creé una radionovela completa de 20 minutos con voces clonadas, música original, efectos de sonido y una trama de ciencia ficción, yo solo, en dos tardes. No porque sea un genio de la producción. Sino porque la IA eliminó las barreras entre lo que podía imaginar y lo que podía crear. Eso es expansión de capacidades, no optimización.
Pero aquí viene lo que Shumer no dice, y que creo que es lo más importante de todo.
Cuando las barreras de ejecución desaparecen, lo que queda al descubierto es algo que ninguna tecnología puede resolver: saber qué quieres hacer y por qué.
Shumer dice: «Si siempre quisiste construir algo pero no tenías las habilidades técnicas, esa barrera ya no existe. Describe una app a la IA y tendrás una versión funcional en una hora». De acuerdo. Pero, ¿qué app? ¿Para qué? ¿Resuelve un problema real o es otra réplica de algo que ya existe? ¿Nace de una necesidad auténtica o de la inercia de hacer algo «porque ahora puedo»?
Shumer dice: «Si siempre quisiste escribir un libro, ahora puedes hacerlo con ayuda de la IA». Perfecto. Pero, ¿qué libro? ¿Tienes algo genuino que decir o vas a pedirle a la IA que decida también eso?
Shumer dice: «Persigue las cosas que te apasionan». Y estoy de acuerdo. Pero, ¿y si llevas tanto tiempo optimizando tu vida según expectativas ajenas que ya no sabes qué te apasiona?
Esa es la pregunta que falta en su artículo. Y creo que es la pregunta central de nuestra época.
Como escribí hace semanas, el verdadero riesgo no es que la IA se equivoque. Es que dejemos de ejercitar algo profundamente humano: nuestra capacidad de elegir. De saber qué queremos. De tener criterio propio.
Despertar no es asustarse
Y aquí es donde el enfoque de Shumer y el de Human-IA divergen de forma importante.
Shumer opera con un marco de «adapta o perece». Su consejo práctico se reduce esencialmente a: paga 20 dólares al mes, dedica una hora diaria a experimentar con IA, y posiciónate antes de que el resto se entere. Es un consejo útil, no lo niego. Pero es incompleto de una forma que puede resultar peligrosa.
Porque «usar la IA» sin saber para qué, sin pensamiento crítico, sin una brújula interna que te diga qué problemas merece la pena resolver y qué sueños merece la pena perseguir, es simplemente cambiar una forma de sonambulismo por otra. Es pasar de ignorar la IA a consumirla pasivamente. Y ninguna de las dos posturas te prepara para lo que viene.
Lo que venimos defendiendo desde Human-IA es algo diferente: antes de correr a usar la herramienta, para. Respira. Y pregúntate: ¿quién soy cuando no estoy optimizando? ¿Qué haría si no tuviera que demostrarle nada a nadie? ¿Qué problemas del mundo me quitan el sueño de verdad?
Porque esas respuestas son las que van a determinar si la IA te expande o te sustituye. Y como la investigación de Harvard viene confirmando, la IA potencia la creatividad principalmente en personas con fuerte metacognición: la capacidad de pensar sobre el propio pensamiento, de planificar, monitorear y refinar. No basta con tener la herramienta. Hay que saber pensar con ella.
Solo quien despierta puede soñar de verdad. Y despertar no es asustarse con artículos que te dicen que el mundo va a cambiar. Despertar es hacerte las preguntas que esos artículos no hacen.
Los sueños que merecen ser soñados
Dicho todo esto, quiero ser claro: Shumer hace un servicio importante al escribir lo que escribe. La honestidad de un insider que dice «he estado dando la versión educada y ya no puedo seguir haciéndolo» merece respeto. Y el diagnóstico de base —la brecha entre percepción pública y realidad tecnológica— es exacto.
Pero la solución no puede ser solo «corre a usar la IA antes de que sea tarde». La solución empieza antes: en saber quién eres, qué quieres, y para qué vas a usar esa herramienta extraordinaria que tienes entre las manos.
Tus sueños están más cerca que nunca. Es verdad. Nunca en la historia de la humanidad ha sido más barato, más rápido y más accesible materializar una idea. El barman que siempre quiso una app para gestionar su bar, la profesora que necesita una herramienta específica para sus alumnos, el artista que imagina una ópera pop sobre el colapso social —nosotros lo hicimos—, todos pueden hoy dar el paso.
Pero la pregunta que va a separar a quienes prosperan de quienes simplemente sobreviven no es «¿sabes usar la IA?». La pregunta es: «¿Sabes lo que quieres?».
Porque si no lo sabes, la IA te lo dirá. Y entonces habrás cambiado la libertad más valiosa que tienes —la de decidir por ti mismo— por la comodidad de que otra inteligencia decida por ti.
Lee a Shumer. Toma en serio su alarma. Pero no te quedes ahí. Después de leerlo, cierra el navegador un momento. Y pregúntate: si mañana pudiera hacer cualquier cosa, ¿qué haría?
La respuesta a esa pregunta vale más que todas las suscripciones de 20 dólares del mundo.


Deja una respuesta