Cuando alguien dice que no usa IA, le creo. Y seguro que tiene razón: no la usa. Ella le usa.

Hace unos días publiqué en LinkedIn un artículo de la fundación: «¿Te está haciendo la IA más capaz o más dependiente?«

En los comentarios, alguien escribió algo que leo y escucho constantemente: «No, no uso IA.»

Esta es mi respuesta.

Cuando me dices que no usas IA, te creo. Probablemente no abres ChatGPT, no experimentas con generadores de imágenes, no interactúas conscientemente con sistemas que se presentan como «inteligencia artificial».

Y entiendo perfectamente esa postura.

Pero hay algo que necesito que sepas: no es que uses IA. Es que llevas años viviendo dentro de ella.

La paradoja de Sócrates: cuando el sabio rechazó la tecnología que lo inmortalizó

Hace más de dos mil años, Platón puso en boca de Sócrates una advertencia que hoy suena extrañamente familiar. En el diálogo Fedro, Sócrates cuenta la historia del dios egipcio Theuth, inventor de la escritura, quien presenta su creación al rey Thamus prometiéndole que será «un fármaco de la memoria y de la sabiduría.»

El rey no se lo cree.

«Padre de las letras», responde Thamus, «les atribuyes poderes contrarios a los que tienen. Porque es olvido lo que producirán en las almas de quienes las aprendan, al descuidar la memoria, ya que, fiándose de lo escrito, llegarán al recuerdo desde fuera, a través de caracteres ajenos, no desde dentro, desde ellos mismos.»

Sócrates está convencido: la escritura es peligrosa. Destruirá la capacidad humana de recordar. Convertirá a las personas en «sabios aparentes en lugar de sabios de verdad.» Los volverá dependientes de una herramienta externa en lugar de cultivar sus capacidades internas.

La ironía, brutal y perfecta, es que solo conocemos esta advertencia de Sócrates porque Platón la escribió.

Sócrates nunca escribió nada. Defendió hasta su muerte la superioridad del diálogo oral, de la memoria viva, del conocimiento que se transmite de alma a alma sin intermediarios. Y hoy, 2.400 años después, solo sabemos de él gracias a la tecnología que rechazó.

¿Te suena familiar este patrón?

«No voy a usar eso. Es peligroso. Destruirá nuestras capacidades naturales.»

Lo dijeron de la escritura.
Lo dijeron de la imprenta.
Lo dijeron de la calculadora.
Lo dijeron de internet.
Lo dicen hoy de la IA.

Y en todos los casos, mientras algunos rechazaban la tecnología en nombre de preservar lo humano, otros ya la estaban usando. Y los que la usaban conscientemente fueron quienes definieron cómo se usaría.

«Yo no voy en coche, voy andando»

Imagina a alguien en 2026 diciendo: «Yo no uso automóviles. Voy andando a todas partes.»

Suena coherente, ¿verdad? Es una decisión personal respetable. Caminar es saludable. No contamina. Es más natural.

Excepto que…

Las calles por las que caminas fueron diseñadas para coches. Los semáforos que obedeces funcionan con algoritmos de optimización de tráfico vehicular. Las aceras existen porque hubo que separar peatones de automóviles. Los horarios comerciales, la distancia entre tu casa y tu trabajo, la ubicación de los supermercados, todo el diseño urbano moderno se estructuró alrededor del automóvil.

Puedes «no usar coche.» Pero vives en un mundo que el coche ya rediseñó.

No decidiste si los coches transformarían la sociedad. Esa decisión se tomó hace un siglo. Lo único que decidiste fue si aprendías a conducir o no.

Con la IA está pasando exactamente lo mismo.

Puedes decir «no uso IA.» Pero ya vives en un mundo que la IA está rediseñando. Los algoritmos ya decidieron qué noticias viste esta mañana, qué productos te recomendaron, qué personas aparecieron en tus redes sociales, qué música sonó en tu playlist, qué rutas tomaste para evitar el tráfico.

La pregunta no es si usas IA o no.

La pregunta es: ¿Quién decide cómo te afecta la IA que ya te rodea?

La invisibilidad como victoria

Hace poco escribí sobre cómo la tecnología más exitosa es la que desaparece. La electricidad ganó cuando dejamos de pensar en ella como «electricidad» y simplemente empezamos a encender interruptores. Internet triunfó cuando dejó de ser «ir a internet» y se convirtió en el aire que respiramos digitalmente.

La IA está recorriendo ese mismo camino. Y lo está haciendo tan rápido que la mayoría de la gente ni siquiera se ha dado cuenta de que ya cruzó la línea.

Cuando dices «no uso IA», lo que realmente estás diciendo es: «No uso ChatGPT.» Y eso puede ser cierto. Pero la IA no vive solo en las conversaciones con chatbots. Vive en absolutamente todo lo que tocas digitalmente.

Déjame mostrarte cuánto.

Tu mañana está hecha de algoritmos

Despiertas. Tu smartphone suena con una alarma inteligente que aprendió cuándo te levantas habitualmente y ajustó el volumen según tus patrones de sueño. Eso es IA.

Desbloqueas el teléfono con Face ID. Un sistema de reconocimiento facial que analiza más de 30.000 puntos infrarrojos invisibles en tu rostro en milisegundos para confirmar que eres tú. Eso es IA. (Face ID Security Guide, Apple)

Abres WhatsApp. El autocorrector que acaba de cambiar «qe» por «que» no es solo un diccionario: es un modelo de procesamiento de lenguaje natural que aprendió cómo escribes, predice lo que vas a teclear, y hasta sugiere respuestas rápidas basándose en el contexto de la conversación. Eso es IA.

Revisas tu correo. Gmail ya filtró automáticamente intentos de phishing, spam y estafas antes de que abrieras la bandeja de entrada: sistemas de detección que combinan señales y modelos de clasificación para proteger a usuarios a escala. Eso es IA. (Overview of Gmail’s spam filters, Google)

Abres Instagram. El algoritmo que decide qué ves primero en tu feed analizó tus interacciones previas, el tiempo que pasaste mirando cada tipo de contenido, las cuentas con las que interactúas, los hashtags que sigues, incluso a qué hora del día estás más activo y cuándo bajas más despacio el scroll porque algo te interesó. Eso es IA.

Sales de casa. Abres Google Maps para evitar el tráfico. La app no solo te muestra el mapa: combina patrones históricos y condiciones en tiempo real y usa machine learning para predecir tráfico y determinar rutas. Eso es IA. (Google Maps 101, Google)

Tu banco te envía una notificación: «Hemos detectado un cargo inusual en tu tarjeta.» Un algoritmo comparó el patrón de tus compras con millones de casos de fraude y decidió protegerte bloqueando temporalmente una transacción sospechosa. Eso es IA.

Y todavía no has llegado al trabajo.

Tu tarde es un ecosistema de predicciones

Almuerzas mientras navegas Amazon o cualquier tienda online. Las recomendaciones de productos no son casuales: un sistema está rastreando qué compraste antes, qué miraste pero no compraste, qué compraron personas con perfiles similares al tuyo, qué productos se compran juntos habitualmente, en qué momento del mes sueles comprar ciertas categorías. Eso es IA.

Buscas algo en Google. El motor de búsqueda no solo busca palabras clave: entiende la intención detrás de tu pregunta, interpreta sinónimos y contexto, corrige automáticamente errores ortográficos sin preguntarte, contextualiza según tu ubicación geográfica e historial, prioriza resultados basándose en relevancia calculada por algoritmos de ranking que procesan cientos de señales simultáneas, y personaliza los anuncios que aparecerán junto a los resultados. Eso es IA.

Usas Grammarly, el corrector de Word, o cualquier herramienta de escritura para redactar un email profesional. El sistema no solo corrige ortografía: analiza el tono de tu mensaje, sugiere reformulaciones para mayor claridad, detecta pasividad excesiva, identifica redundancias, señala posibles ambigüedades, y hasta te advierte si el tono es demasiado informal para el contexto. Eso es IA.

Llamas al banco, a tu compañía de internet, a atención al cliente de cualquier empresa. La voz que te responde inicialmente, entiende tu consulta, te transfiere al departamento correcto o incluso resuelve tu problema. Eso es IA.

Tu Spotify Wrapped anual no es magia: un sistema analizó cada canción que escuchaste, cuántas veces repetiste cada una, a qué hora del día, en qué contexto, con qué frecuencia saltaste intros, y generó estadísticas personalizadas que parecen conocerte mejor que tú mismo. Eso es IA.

Llegas a casa. Tu termostato Nest o cualquier termostato inteligente ya ajustó la temperatura porque «aprendió» tus horarios, tus preferencias de temperatura para cada momento del día, e incluso anticipó si hoy llegarías más tarde basándose en patrones previos. Eso es IA.

Tu noche es una curación personalizada

Decides qué ver en Netflix. Las sugerencias que aparecen en tu pantalla no son las mismas que ve tu vecino, ni tu pareja, ni nadie más: Netflix describe su sistema como personalizado para ayudarte a encontrar títulos que “podrías disfrutar”. Eso es IA. (How Netflix’s Recommendations System Works, Netflix)

Pones música en Spotify. La playlist «Descubrimiento Semanal» no es casualidad: un sistema analizó tus gustos musicales, los comparó con millones de usuarios con perfiles de escucha similares, identificó artistas que podrías disfrutar basándose en patrones acústicos, líricos y de producción, e incluso consideró qué canciones funcionan bien como «transición» desde lo que ya conoces hacia lo nuevo. Eso es IA.

Publicas una foto en redes sociales. Antes de subirla, el filtro que aplicaste utilizó redes neuronales para detectar automáticamente rostros, ajustar iluminación en tiempo real, suavizar piel, modificar proporciones, e incluso sugerir qué filtro funcionaría mejor según el contenido de la imagen. La función de etiquetado automático reconoció a tus amigos entrenándose con millones de fotografías. El sistema detectó si había contenido inapropiado y lo bloqueó antes de que pudieras publicarlo. Eso es IA.

Revisas tu smartwatch antes de dormir. Te dice cuántos pasos diste, cómo estuvo tu frecuencia cardíaca, te recomienda si deberías moverte más, analiza la calidad de tu sueño de anoche, predice cuándo deberías acostarte hoy para descansar óptimamente. Todo basado en análisis de patrones, comparación con tus datos históricos, evaluación de tendencias. Eso es IA.

Tu asistente de voz te recuerda que mañana tienes una reunión temprano y sugiere ponerte una alarma 15 minutos antes de lo habitual considerando el tráfico matutino esperado. Eso es IA.

Y mañana, volverá a empezar.

El verdadero problema no es usarla. Es no saberlo.

Cuando alguien me dice «no uso IA», entiendo perfectamente lo que quiere decir: no interactúa conscientemente con sistemas que se presentan abiertamente como «inteligencia artificial». No abre ChatGPT, no experimenta con generadores de imágenes, no pide a un asistente virtual que le escriba un informe.

Y eso está bien. Nadie está obligado a usar esas herramientas.

Pero el problema de creer que «no usas IA» es otro: estás tomando decisiones basándote en información filtrada por algoritmos que no comprendes, consumiendo contenido curado por sistemas opacos cuyas reglas desconoces, navegando por un mundo digital que te está modelando constantemente sin que lo notes.

Y cuando no sabes que algo te está influenciando, no puedes decidir conscientemente cómo responder.

Es como creer que «no usas química» mientras comes alimentos procesados, te lavas con detergente, tomas medicamentos y respiras aire urbano. Puedes no estudiar química. Pero vives en un mundo que la química ya transformó.

De consumidor inconsciente a usuario consciente

Como he escrito antes, la diferencia entre quienes se benefician de la tecnología y quienes son usados por ella no está en rechazarla o adoptarla ciegamente. Está en la metacognición: en entender cómo funcionan los sistemas que usas, qué objetivos persiguen, qué sesgos tienen, quién los diseñó y para qué.

No necesitas convertirte en ingeniero de machine learning. Pero sí necesitas saber que:

  • El algoritmo de Facebook maximiza tu tiempo en pantalla, no tu bienestar informativo ni la veracidad de lo que ves
  • Las recomendaciones de YouTube priorizan contenido que genera engagement emocional intenso, que no siempre es el más veraz, equilibrado o valioso
  • Los filtros de Instagram perpetúan estándares estéticos irreales porque eso aumenta la insatisfacción corporal que luego se monetiza vendiendo productos de belleza
  • Google Maps te lleva por la ruta más rápida según sus datos actuales, pero no necesariamente por la más segura, la más bonita, la más interesante, o la que te permitiría descubrir algo nuevo de tu ciudad
  • Amazon te muestra primero los productos que generan más comisión o que otros usuarios compraron impulsivamente, no necesariamente los de mejor calidad o precio
  • LinkedIn prioriza señales de interacción y “dwell time” (tiempo de permanencia) para rankear contenido en el feed (LinkedIn Engineering: dwell time)

Y precisamente aquí está la ironía más reveladora de esta conversación: ese comentario de «yo no uso IA» apareció en mi artículo de LinkedIn no porque esa persona buscara activamente una discusión profunda sobre inteligencia artificial, sino porque el algoritmo de LinkedIn decidió mostrarle mi post.

¿Y por qué se lo mostró?

Porque el algoritmo detectó que ese tipo de contenido —reflexivo, que invita al debate, que cuestiona certezas— tiene alta probabilidad de generar comentarios. Y los comentarios son engagement. Y el engagement mantiene a la gente en la plataforma. Y el tiempo en plataforma se monetiza con publicidad.

El algoritmo no le mostró mi artículo porque le fuera a ser útil profesionalmente. No porque fuera a expandir su conocimiento sobre IA. No porque fuera a conectarla con personas afines a sus intereses genuinos.

Se lo mostró porque predijo —correctamente— que iba a comentar.

Y aquí estamos. Yo escribiendo esta respuesta larga y reflexiva. Esa persona habiendo dejado su comentario. Ambos generando exactamente el tipo de interacción que el algoritmo de LinkedIn fue diseñado para provocar.

¿Ves el patrón?

No es que LinkedIn sea «malo» o que su algoritmo esté «equivocado». Es que fue diseñado con un objetivo específico: maximizar el tiempo que pasas en la plataforma, porque eso maximiza los ingresos publicitarios.

El aprendizaje profesional genuino, las conexiones significativas, el desarrollo de carrera real… todo eso son efectos secundarios agradables cuando ocurren. Pero no son el objetivo del algoritmo.

El objetivo es que vuelvas. Que permanezcas. Que interactúes. Que generes datos.

Y funciona extraordinariamente bien.

LinkedIn sabe qué tipo de posts generan más comentarios (los que tocan temas polarizantes o presentan opiniones fuertes), qué tipo de perfiles comentan más (los que están construyendo marca personal o buscando validación), qué horas del día eres más propenso a interactuar, qué longitud de texto lees completo vs. qué longitud abandonas.

Todo eso es IA trabajando en segundo plano.

Y cuando alguien dice «yo no uso IA» en un comentario de LinkedIn, está demostrando sin saberlo exactamente el punto que estoy tratando de hacer: la IA ya te está usando, incluso en el momento mismo en que niegas usarla.

El algoritmo decidió qué viste. Decidió en qué orden lo viste. Decidió cuándo mostrártelo para maximizar la probabilidad de que interactuaras. Y cuando lo hiciste, registró tu comportamiento para afinar aún más sus predicciones sobre ti.

No es ciencia ficción. Es el modelo de negocio de prácticamente todas las plataformas digitales que usas a diario.

Estos sistemas no son neutrales. Fueron diseñados por humanos con objetivos específicos, entrenados con datos que contienen sesgos históricos, optimizados para métricas de negocio que no siempre coinciden con tus intereses como usuario.

La alfabetización invisible que necesitamos

Desde la Fundación Human-IA, no pedimos que la gente deje de usar tecnología. Pedimos que la use conscientemente.

Que entienda que cuando Google «te sugiere» algo, no es una recomendación desinteresada: es el resultado de un modelo publicitario donde tú no eres el cliente, eres el producto.

Que cuando TikTok «sabe exactamente lo que te gusta», no es magia ni serendipia: es un sistema de recomendación que rankea contenido según señales de interacción (por ejemplo, lo que ves, completas, te interesa o marcas como “no me interesa”) para construir un feed único por usuario. (How TikTok recommends videos #ForYou, TikTok)

Que cuando tu banco te ofrece un crédito preaprobado, un algoritmo ya decidió si eres un buen cliente basándose en datos que nunca viste, usando criterios que nunca conocerás, comparándote con patrones que nunca te explicarán.

No se trata de rechazar estas herramientas. Se trata de no ser pasivo ante ellas.

La alfabetización crítica en IA no es aprender a programar. Es aprender a preguntar:

  • ¿Quién diseñó esto y con qué objetivo real?
  • ¿Qué datos está usando para tomar decisiones sobre mí?
  • ¿Qué alternativas no me está mostrando y por qué?
  • ¿Qué consecuencias tiene aceptar esta recomendación sin cuestionarla?
  • ¿Cómo se monetiza mi atención, mi tiempo, mis datos?
  • ¿Qué comportamientos está incentivando este sistema?

El espejismo de la neutralidad tecnológica

Hay una narrativa peligrosa que dice: «La tecnología es neutral. Depende de cómo la uses.»

Es mentira.

La tecnología nunca es neutral. Toda herramienta lleva incorporados los valores, prejuicios, intereses económicos y objetivos de quienes la diseñaron.

Un martillo puede parecer neutral, pero fue diseñado específicamente para clavar, no para atornillar. Su forma, peso, balance, materiales, todo te empuja hacia ciertos usos y dificulta otros. No es neutral: es intencional.

La IA que usas sin saberlo también te empuja. Hacia consumir más. Hacia permanecer más tiempo. Hacia generar más datos. Hacia comportamientos predecibles que pueden monetizarse. Hacia divisiones emocionales que aumentan el engagement. Hacia comparaciones sociales que generan insatisfacción comprable.

No es una conspiración. Es un modelo de negocio perfectamente legal y tremendamente efectivo.

(Esto conecta con lo que se conoce como tecnología persuasiva: sistemas diseñados explícitamente para moldear actitudes y conductas). (Center for Humane Technology: Persuasive Technology)

Y mientras creas que «no usas IA», ese modelo te seguirá usando a ti.

La verdadera pregunta

Volvamos a Sócrates por un momento.

Tenía razón en algo: la escritura SÍ cambió cómo funciona la memoria humana. Ya no memorizamos poemas épicos enteros como hacían los griegos antiguos. Ya no recordamos genealogías completas, calendarios lunares, recetas médicas ancestrales.

Pero, ¿perdimos algo valioso? Sí.

¿Ganamos algo más valioso? También sí.

La escritura nos permitió construir conocimiento acumulativo, ciencia reproducible, bibliotecas, universidades, la civilización tal como la conocemos. Liberó nuestra memoria de tareas de almacenamiento para dedicarla a tareas de análisis, creatividad, conexión de ideas.

No fue neutral. Cambió algo fundamental en nosotros.

Pero el cambio no fue inevitable ni uniforme. Quienes aprendieron a leer y escribir conscientemente, quienes entendieron las reglas del nuevo juego, fueron quienes escribieron la historia. Literalmente.

Quienes rechazaron la escritura «para preservar la pureza de la memoria oral» simplemente desaparecieron del registro histórico. Nadie recuerda sus nombres. Nadie conoce sus ideas. Se perdieron en el olvido que tanto temían.

La IA está en ese mismo punto de inflexión.

Y aquí es donde la misión de la Fundación Human-IA cobra todo su sentido: expandir el potencial humano en la era de la IA.

No se trata de resistir la tecnología. Tampoco de adoptarla ciegamente.

Se trata de entender que el verdadero potencial que podemos expandir es el tuyo. Tu capacidad de pensar críticamente. Tu habilidad para tomar decisiones informadas. Tu autonomía para elegir conscientemente en lugar de ser empujado pasivamente.

La IA puede amplificar tus capacidades o puede atrofiarlas. Puede liberarte de tareas repetitivas para que te dediques a lo verdaderamente humano, o puede convertirte en un consumidor pasivo que delega su pensamiento a algoritmos que no comprende.

(De hecho, incluso en tareas de escritura profesional, hay evidencia experimental de mejoras en productividad y calidad cuando la gente usa herramientas generativas, con efectos desiguales según habilidad/experiencia). (Noy & Zhang, MIT Economics working paper)

La diferencia no está en la tecnología.

Está en cómo decides relacionarte con ella.

Así que cuando me digas «no uso IA», no voy a discutir contigo.

Te voy a preguntar otra cosa:

¿Cómo decides usar la IA que ya está en tu vida sin que lo hayas elegido?

Porque esa es la pregunta que realmente importa.

No si usas o no usas. Sino cómo usas lo que ya está ahí. Cómo decides qué recomendaciones aceptas. Cómo evalúas qué contenido consumes. Cómo cuestionas los resultados que te presentan. Cómo proteges tus datos. Cómo mantienes tu autonomía de pensamiento en un ecosistema diseñado para influenciarte.

Y sobre todo: qué potencial tuyo quieres expandir.

Porque expandir potencial no significa «ser más productivo» según las métricas que otros decidieron para ti. No significa optimizarte para encajar en expectativas laborales, sociales o algorítmicas.

Significa preguntarte: ¿Qué capacidades genuinamente mías quiero desarrollar? ¿Qué me hace más humano, no más eficiente? ¿Qué quiero crear, aprender, explorar, que nazca de mi curiosidad y no de lo que un algoritmo de recomendación decidió mostrarme?

Como exploramos en el análisis del ajedrez y la IA, cuando una tecnología se vuelve ubicua, la clave no es resistirse a ella románticamente. Es aprender a jugar mejor el juego que ya estás jugando, te des cuenta o no.

Pero «jugar mejor» no significa jugar más rápido, más eficientemente, más productivamente.

Significa jugar más conscientemente. Con intención. Con criterio. Con autonomía.

Porque vivimos en un mundo donde la IA no es opcional.

Ya no puedes elegir si la IA transformará tu vida. Esa decisión se tomó en los últimos diez años mientras discutíamos si los robots nos quitarían el trabajo.

La única elección real que tienes ahora es si la usas conscientemente —entendiendo sus reglas, sus sesgos, sus objetivos— o si dejas que te use sin que lo notes.

Y esa elección, créeme, importa más de lo que imaginas.

Porque al final, la lección de Sócrates no es que la tecnología sea mala.

Es que ignorar la tecnología que ya te rodea no te protege de ella.

Solo te vuelve invisible en el mundo que esa tecnología está construyendo.

Y en un mundo construido por IA, quienes expandirán su potencial serán quienes entiendan cómo funciona ese mundo.

Los demás solo habitarán en él.


InteligenciaArtificial #PensamientoCrítico #TecnologíaInvisible #AlgoritmosSociales #AlgoitmosLinkedIn #ConscienciaDigital #ExpandirPotencial


Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *