Hay una frase que leí hace unos días y que no he conseguido quitarme de la cabeza. La decía un usuario en una entrevista masiva que acaba de publicar Anthropic, la empresa que desarrolla Claude. La frase era esta: «Uso la IA para revisar contratos, ahorrar tiempo… y al mismo tiempo temo: ¿estoy perdiendo mi capacidad de leer por mí mismo? Pensar era la última frontera».
No era un tecnófobo. No era un ludita digital. Era alguien que usa la IA todos los días y que, mientras la usa, se hace la pregunta más honesta y más incómoda que existe: ¿qué me estoy jugando?
Me quedé pensando en esa frase mucho rato.
La encuesta más grande que nadie se esperaba
Anthropic acaba de publicar los resultados de lo que describe como el estudio cualitativo sobre IA más grande realizado hasta la fecha. Durante una semana de diciembre, invitaron a todos los usuarios de Claude.ai a ser entrevistados por una versión especial de Claude llamada Anthropic Interviewer. El resultado: 80.508 personas, en 159 países y 70 idiomas, contaron qué quieren de la inteligencia artificial, qué les preocupa y qué están viviendo con ella.
Ochenta mil personas hablando con una IA sobre cómo se sienten respecto a la IA. Hay algo casi poético en eso, aunque no sé exactamente si poético es la palabra correcta.
Pero lo que me importa no es el número. Lo que me importa es lo que encontraron.
No hay dos bandos
El relato que lleva años circulando en los medios, en los debates de empresa, en las conversaciones de café, es el de los dos bandos. Los que creen en la IA y los que la temen. Los optimistas y los escépticos. Los que van a por ella y los que se resisten. Una narrativa cómoda, ordenada, que permite saber en qué equipo estás.
El problema es que no existe.
Lo que Anthropic encontró, en ochenta mil conversaciones reales con personas de carne y hueso, es que la esperanza y el miedo no están repartidos entre distintas personas. Coexisten dentro de la misma persona. Alguien que valora el apoyo emocional que le da la IA tiene tres veces más probabilidades de temer también volverse dependiente de ella. Ese ratio se repitió en todas las tensiones que midieron. No hubo ninguna excepción.
Esto no es una contradicción que haya que resolver. Es la descripción más precisa que he visto del estado emocional real de quien usa la inteligencia artificial con honestidad y con consciencia.
Y yo me reconocí en esa descripción.
Las cinco tensiones que son en realidad una sola
El estudio identifica cinco patrones recurrentes donde el beneficio y el daño crecen exactamente de la misma raíz. Aprendes con la IA y temes que tu pensamiento se atrofie. Ahorras tiempo y ves cómo la cinta de correr se acelera. La misma disponibilidad que hace de Claude un acompañante de madrugada cuando no puedes dormir también te hace más fácil evitar una conversación difícil con alguien de verdad. Construyes riqueza y sientes el vértigo del desplazamiento económico. Confías en el criterio de la IA para algo que importa y tienes una historia de quemadura que no has olvidado.
Cinco tensiones que, si las miras de cerca, son la misma pregunta formulada de cinco maneras distintas: ¿estoy usando esto, o esto me está usando a mí?
Es exactamente la pregunta que llevamos meses haciendo en Human-IA. En posts como ¿Te está haciendo la IA más capaz o más dependiente? o en Agotamiento por IA, hemos estado orbitando alrededor de este mismo núcleo desde ángulos distintos. Pero hasta ahora no teníamos ochenta mil voces diciéndolo al mismo tiempo.
Lo que queremos de verdad (y no es lo que decimos)
Hay otro dato del estudio que me parece igual de revelador, aunque de una forma distinta.
La respuesta más frecuente cuando preguntaban qué quería la gente de la IA era excelencia profesional. Ser mejores en el trabajo. El 19% lo mencionó como su deseo principal. Hasta ahí, nada sorprendente. Pero cuando los investigadores profundizaban en el porqué, la respuesta derivaba siempre hacia otro sitio. Automatizar el correo resultaba ser, en realidad, un deseo de tener más tiempo con la familia. Ser más productivo era, en el fondo, poder estar más presente en las cosas que importan.
Pedimos eficiencia. Queremos vida.
No sé si eso dice algo de la IA. Creo que dice algo de nosotros.
Llevamos décadas metidos en una trampa: trabajamos para vivir pero terminamos viviendo para trabajar, y cualquier herramienta que nos promete eficiencia la absorbemos en la misma trampa en lugar de usarla para escapar de ella. La IA tiene el potencial de ser la primera tecnología lo suficientemente potente como para romper ese ciclo, si decidimos conscientemente usarla para eso. Pero también tiene el potencial de acelerar la trampa si dejamos que otros decidan por nosotros qué hacer con el tiempo que libera.
Si no sabes lo que quieres, la IA lo decidirá por ti. Eso lo escribí hace un tiempo. Sigo pensando que es la advertencia más importante que puedo hacer.
El debate que no existe y la conversación que sí importa
Durante mucho tiempo he sentido cierta incomodidad cuando alguien me pregunta si soy «a favor» o «en contra» de la IA. La pregunta me parece mal formulada, y no por evasión ni por diplomacia. Me parece mal formulada porque asume que hay un objeto unitario llamado «IA» y una postura simple que adoptar ante él.
Lo que este estudio confirma, con una base empírica que no tiene precedente, es que ninguna persona que use la IA de verdad responde a esa pregunta de forma simple. La respuesta real es siempre una tensión. Y esa tensión no es un problema a eliminar. Es señal de que el pensamiento está funcionando.
La atrofia cognitiva que más me preocupa, como escribimos al hilo de lo que el Nobel de computación Geoffrey Hinton lleva tiempo advirtiendo, no viene de usar la IA. Viene de usarla sin hacerse preguntas. La persona que teme perder su capacidad de leer mientras usa la IA para revisar contratos está, precisamente, ejerciendo la facultad más valiosa que tenemos: la de observar lo que nos está pasando y preguntarse si es lo que queremos.
Eso no es miedo. Eso es pensamiento crítico. Y en este momento, es lo más parecido a un superpoder que conozco.
Lo que Anthropic hizo (y lo que significa)
Quiero terminar con algo que no tiene nada que ver con los datos del estudio y sí con el gesto que lo produjo.
Anthropic construyó una versión de Claude específicamente para escuchar a sus usuarios. No para venderles. No para retenerles. Para preguntarles honestamente qué sienten, qué temen y qué esperan. Y luego publicaron los resultados, incluyendo las partes incómodas.
En el ecosistema tecnológico actual, donde la regla no escrita es extraer datos para afinar el producto y el relato público es siempre de progreso inevitable y beneficio universal, esto es inusual. No perfecto, no ingenuo, no exento de interés propio. Pero inusual.
Puedes leer el informe completo en anthropic.com/features/81k-interviews. Te recomiendo que lo hagas, no por los porcentajes, sino por las citas directas de usuarios reales. Hay una densidad humana en esas voces que los resúmenes no capturan.
Ochenta mil personas hablaron. Lo que dijeron confirma que el debate sobre la IA no está entre nosotros. Está dentro de nosotros.
Y eso, lejos de ser un problema, me parece el mejor lugar posible donde podría estar.
La tensión no divide. Habita.
#inteligenciaartificial #pensamiento-crítico #anthropic #uso-consciente-ia #dependencia-tecnológica #futuro-del-trabajo


Deja una respuesta