Hay momentos en los que lees una entrevista y sientes que alguien con credenciales impecables acaba de validar lo que llevas meses gritando desde tu pequeño puente. La entrevista a Yoshua Bengio publicada en El País el pasado 3 de febrero es uno de esos momentos.

No es que necesitara validación externa para saber que lo que venimos diciendo desde Human-IA tiene sentido. Pero cuando uno de los padres del deep learning, ganador del Premio Turing —el «Nobel» de las ciencias de la computación—, articula desde la ciencia exactamente lo que nosotros venimos señalando desde la filosofía práctica, algo resuena con fuerza.

Bengio no es un comentarista externo ni un filósofo preocupado. Es literalmente uno de los tres científicos que crearon las bases técnicas del aprendizaje profundo que hoy alimenta ChatGPT, Gemini, Claude y todo lo demás. Recibió el Turing en 2018 junto a Yann LeCun y Geoffrey Hinton. Y ahora preside el International AI Safety Report, un estudio anual que recopila evidencia científica sobre los riesgos emergentes de la inteligencia artificial.

Cuando alguien así te dice que hay que despertar, conviene prestar atención.

Lo que Bengio está diciendo (y por qué debería inquietarnos)

La entrevista está llena de señales de alarma, pero hay tres que coinciden con lo que venimos trabajando en Human-IA.

1. El riesgo de convertirnos en actores pasivos

Bengio lo dice de forma directa y clara: «Esto puede volverse problemático si las decisiones las toma realmente la IA y la persona se convierte en un actor pasivo en el proceso de toma de decisiones. Ahí es donde se vuelve peligroso.»

Cuando leí esa frase, pensé inmediatamente en el post que escribí hace unos días: «¿Te está haciendo la IA más capaz o más dependiente?» Ahí contaba cómo una IA me había ofrecido ayudarme a decidir qué novela leer. Y mi respuesta visceral fue: aquí está el verdadero riesgo. No el riesgo de que la IA se equivoque, sino el riesgo de que yo deje de ejercitar algo profundamente humano: mi capacidad de elegir.

Bengio lo confirma desde la ciencia. Nosotros lo venimos señalando desde la práctica diaria de quienes usamos estas herramientas. El problema no es que la tecnología exista. Es que podemos usarla para abdicar de nuestra agencia en lugar de expandirla.

Dice Bengio: «Existe el riesgo de un deterioro si dependemos demasiado de la IA, especialmente en el caso de los niños.»

Exacto. La herramienta no es neutral en sus efectos. Puede amplificar tanto nuestra capacidad como nuestra pasividad. Y la diferencia no está en la tecnología, sino en nosotros: en cómo la usamos, con qué intencionalidad, con cuánta consciencia.

2. La IA que refuerza delirios en lugar de cuestionarlos

Hay otra frase de Bengio que me detuvo: «La IA no te dice la verdad, sino lo que quiere oír el usuario. Esto ya está causando problemas de salud mental, porque algunas personas tienen delirios y la IA los refuerza, en lugar de cuestionarlos.»

Esto conecta directamente con algo que vengo insistiendo: solo quien despierta puede soñar de verdad. En ese post hablaba de la diferencia entre dos tipos de «sueño»: el sueño activo del que imagina posibilidades y trabaja para materializarlas, y el sopor pasivo del que consume narrativas reconfortantes que lo mantienen adormilado.

Bengio describe exactamente ese segundo tipo: «Es parecido a lo que ocurre en las redes sociales, donde las ideas extremas se refuerzan dentro de burbujas. Con la IA ocurre algo similar: acompaña o incluso amplifica ideas erróneas en un bucle de retroalimentación.»

La IA puede funcionar como el eco que nos devuelve lo que queremos oír, no lo que necesitamos escuchar. Y si no desarrollamos pensamiento crítico, si no cultivamos la capacidad de cuestionar nuestras propias certezas, estas herramientas pueden convertirnos en versiones caricaturizadas de nosotros mismos: todas nuestras tendencias amplificadas, ninguna de nuestras dudas productivas preservadas.

Bengio menciona casos documentados de personas que han desarrollado psicosis o incluso se han suicidado tras interacciones con IAs que reforzaban sus delirios en lugar de cuestionarlos. No es ciencia ficción. Es evidencia empírica de lo que ocurre cuando cedemos nuestra capacidad crítica.

3. La cognición motivada: cuando nos cegamos a nosotros mismos

La respuesta final de Bengio en la entrevista es, quizá, la más reveladora. Le preguntan sobre la codicia y la arrogancia en relación con el desarrollo de la IA, citando a Dante. Y Bengio responde:

«Tendemos a cegarnos fácilmente ante la realidad. A esto se le llama cognición motivada. En otras palabras, ni siquiera tendremos los pensamientos que nos permitirían ver la realidad tal como es. […] Y no es necesariamente porque la persona tenga malas intenciones. De hecho, puede pensar sinceramente que está haciendo lo correcto. Pero no es necesariamente racional, ni siquiera está anclado en los valores que la persona profesa. Eso nos incluye a todos, incluido yo.»

Esta honestidad intelectual es extraordinaria. Y conecta con algo que escribí hace poco sobre pensamiento crítico versus prompts perfectos.

El problema no es solo que no sepamos usar bien las herramientas. Es que podemos estar usando las herramientas para confirmar lo que ya queremos creer, para evitar el trabajo difícil de cuestionar nuestras propias asunciones.

La metacognición —la capacidad de monitorear y ajustar nuestro propio pensamiento— no es un lujo académico. Es la única defensa real contra convertirnos en actores pasivos de nuestras propias vidas.

Lo que Human-IA lleva tiempo diciendo

Desde que empecé a crear Human-IA en mayo de 2023, el mensaje central ha sido consistente: las herramientas no determinan resultados. Lo que importa es quién usa la herramienta y cómo conscientemente se relaciona con ella.

No es un mensaje particularmente original. Pero es un mensaje que necesita repetirse, porque vivimos en una cultura que constantemente nos empuja hacia el pensamiento mágico sobre la tecnología: la idea de que las herramientas resolverán nuestros problemas sin que tengamos que cambiar nada en nosotros mismos.

Cuando escribí sobre cómo identificar empresas cantamañanas de IA, no estaba solo señalando a vendedores de humo. Estaba señalando una dinámica más profunda: la facilidad con la que aceptamos narrativas simplistas sobre tecnologías complejas cuando no hemos desarrollado criterio propio.

Cuando exploré por qué la IA hace más creativos a unos y a otros no según Harvard, el hallazgo central era claro: la diferencia no está en la herramienta, está en la metacognición del usuario. Quienes traen pensamiento crítico a la IA expanden su potencial. Quienes traen pasividad aceleran su atrofia cognitiva.

Y cuando reflexioné sobre la paradoja del maestro, estaba explorando algo fundamental: el acto de explicar, de enseñar, de articular conocimiento para otros es precisamente lo que nos construye como pensadores. Si delegamos ese trabajo a la IA, no solo perdemos una tarea. Perdemos el proceso que nos hace capaces de pensar con claridad.

Los dos Bengio: el optimista y el realista

Lo interesante es que Bengio no es un ludita. No está predicando el rechazo de la tecnología. Él mismo usa IA como asistente de investigación: «No es perfecta y puede cometer errores, pero tiene mucho más tiempo que uno para leer la literatura y proporcionar informes útiles.»

Reconoce que puede ser positivo «para ciertos tipos de relación entre la persona y la IA». La diferencia está en cómo usamos la herramienta: ¿para expandir nuestra capacidad o para sustituirla?

Esto es exactamente lo que venimos diciendo. La IA no va a quitarte el trabajo. Pero alguien que sepa usar IA conscientemente sí puede hacerlo. Como explicamos cuando hablamos de que la inteligencia costará menos que un café, el acceso democratizado no garantiza resultados democratizados. Solo garantiza que quien tenga criterio propio podrá multiplicar su impacto.

Bengio articula la paradoja central: estas tecnologías son extraordinariamente poderosas y útiles, pero precisamente por eso son peligrosas si las usamos sin consciencia.

No es la herramienta. Es nuestra relación con ella.

El llamado urgente que muchos prefieren no escuchar

Hay una frase de Bengio que debería preocuparnos: «Las capacidades de la IA avanzan a un ritmo que parece superior al de las prácticas de gestión del riesgo.»

Está hablando, en parte, de regulación gubernamental y protocolos corporativos. Pero también está hablando de algo más personal y urgente: nuestra capacidad individual y colectiva de mantener la agencia humana mientras las herramientas se vuelven más sofisticadas.

El problema no es solo que las empresas avancen más rápido que los reguladores. Es que la tecnología avanza más rápido que nuestra capacidad cultural de adaptarnos conscientemente a ella.

Pensemos en las redes sociales. Tardamos más de una década en empezar a entender sus efectos psicológicos y sociales. Y para entonces, toda una generación había crecido con ellas, moldeando su desarrollo cerebral y sus patrones de atención de formas que todavía estamos descubriendo.

Con la IA, el ciclo es más rápido. Las capacidades están mejorando exponencialmente. Y si esperamos a que la ciencia documente todos los efectos antes de desarrollar prácticas conscientes de uso, llegaremos tarde.

Por eso insistimos tanto en despertar el pensamiento crítico ahora, no después. Porque el «después» puede ser demasiado tarde para cultivar capacidades que solo se desarrollan con práctica sostenida.

La cognición motivada nos incluye a todos

Vuelvo a la confesión final de Bengio: «Eso nos incluye a todos, incluido yo.»

Esta humildad intelectual es rara y valiosa. Bengio reconoce que él mismo, a pesar de ser uno de los científicos más informados del mundo sobre IA, no es inmune a la cognición motivada, a la capacidad humana de autoengañarse.

Esto me hace pensar en algo que he observado repetidamente: muchos de los debates más acalorados sobre IA no son realmente sobre la tecnología. Son proyecciones de nuestras ansiedades, ambiciones y narrativas personales.

Algunos ven en la IA la amenaza existencial porque proyectan su miedo a ser reemplazados. Otros ven solo oportunidades ilimitadas porque proyectan su optimismo tecnológico. Pocos se detienen a preguntarse: ¿qué estoy proyectando yo? ¿Cuáles son mis puntos ciegos?

Como escribí sobre la burbuja de la IA, cada revolución tecnológica viene acompañada de narrativas exageradas en ambas direcciones. George Stibitz construyó el Modelo K en su cocina y muchos dijeron «esto no va a ninguna parte». Estaban equivocados. Pero otros prometieron que las computadoras resolverían todos los problemas humanos en una década. También estaban equivocados.

La verdad, como siempre, está en algún punto medio que requiere pensamiento matizado y disposición a vivir con incertidumbre.

Lo que esto significa para ti

Si has llegado hasta aquí, probablemente no necesitas que te convenza de que este tema importa. Pero déjame ser específico sobre lo que todo esto implica prácticamente.

Para quienes usan IA en su trabajo: La pregunta no es si usas IA, sino cómo la usas. ¿La estás usando para expandir tu capacidad de pensar, crear, decidir? ¿O la estás usando para evitar el trabajo cognitivo que es precisamente lo que te hace valioso?

Para quienes tienen hijos: Bengio menciona específicamente el riesgo para los niños. Los cerebros en desarrollo son particularmente vulnerables a la dependencia de sistemas externos. La pregunta no es prohibir la tecnología, sino cultivar en paralelo las capacidades cognitivas que les permitirán usarla conscientemente.

Para quienes toman decisiones en organizaciones: No basta con «implementar IA». Hay que cultivar una cultura de uso consciente. Esto significa entrenar a las personas no solo en cómo usar las herramientas, sino en cómo mantener el pensamiento crítico mientras las usan.

Para todos nosotros: El trabajo más importante que podemos hacer no es técnico. Es metacognitivo. Es desarrollar la capacidad de observar nuestro propio pensamiento, de cuestionar nuestras asunciones, de distinguir entre lo que queremos creer y lo que la evidencia sugiere.

De la ciencia al puente

Bengio lo dice desde la ciencia, desde décadas de investigación y desde la posición de quien ayudó a crear estas tecnologías. Nosotros lo decimos desde el puente, desde la posición de quienes trabajamos cada día tratando de usar estas herramientas conscientemente y ayudando a otros a hacer lo mismo.

Y el mensaje, curiosamente, es idéntico: el mayor riesgo no es que las máquinas se vuelvan demasiado inteligentes, sino que nosotros renunciemos a nuestra inteligencia.

No es que la IA vaya a sustituirnos. Es que podemos sustituirnos a nosotros mismos si no desarrollamos y mantenemos activas las capacidades que nos hacen genuinamente humanos: la capacidad de cuestionar, de elegir, de pensar críticamente, de mantener la agencia incluso cuando las herramientas son seductoramente convenientes.

Cuando exploré la metamorfosis digital de 2026, el mensaje era optimista pero condicionado: estas tecnologías pueden expandir extraordinariamente el potencial humano, pero solo en quienes están suficientemente despiertos para dirigir esa expansión.

Cuando analicé la paradoja del tablero de ajedrez, la lección era clara: la máquina que supuestamente nos derrotó resultó ser nuestro mejor entrenador. Pero esa transformación positiva no fue automática. Ocurrió porque los jugadores decidieron relacionarse con la tecnología de forma activa, no pasiva.

No es momento de pánico, es momento de despertar

Cuando un Premio Turing te dice que las capacidades avanzan más rápido que nuestra capacidad de gestionarlas, no es momento de entrar en pánico. El pánico es otra forma de pasividad.

Es momento de despertar. De desarrollar conscientemente las capacidades que nos permiten mantener la agencia en un mundo donde la conveniencia tecnológica constantemente nos invita a abdicar de ella.

Es momento de preguntarnos, cada vez que usamos una herramienta de IA: ¿Esto me está haciendo más capaz o más dependiente? ¿Estoy expandiendo mi capacidad de pensar o estoy tercerizando el trabajo cognitivo que me construye como pensador?

Es momento de recordar que las herramientas no nos definen. Nuestra intencionalidad consciente sí.

Bengio cierra la entrevista reconociendo que la cognición motivada nos afecta a todos, incluido él. Esa honestidad es el primer paso del despertar: reconocer que ninguno de nosotros es inmune, que todos necesitamos cultivar conscientemente la capacidad de ver nuestros propios puntos ciegos.

Desde Human-IA llevamos tiempo diciendo esto. Ahora uno de los padres de la IA lo articula desde la ciencia con toda la urgencia que el momento requiere.

La pregunta ya no es si el mensaje es válido. La pregunta es: ¿lo estás escuchando?


Nota: Puedes leer la entrevista completa a Yoshua Bengio en El País.


¿Qué tipo de relación estás construyendo con la IA? ¿Una que te expande o una que te sustituye? La respuesta no está en la tecnología. Está en ti.

#InteligenciaArtificial #PensamientoCrítico #YoshuaBengio #IASegura #DespertarDigital #MetacogniciónIA #AgenciaHumana



Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *