La semana pasada asistรญ a un evento de networking. No voy a decir cuรกl ni dรณnde, porque no se trata de seรฑalar a nadie. Lo que sรญ puedo decir es que en menos de dos horas escuchรฉ la palabra ยซexpertoยป aplicada a la inteligencia artificial unas quince veces. Quince. La mayorรญa de las veces, salรญa de la boca de personas que llevaban entre seis meses y un aรฑo usando herramientas como ChatGPT, que habรญan hecho algรบn curso online, que habรญan leรญdo cuatro artรญculos y que tenรญan en su perfil de LinkedIn algo parecido a ยซAI Expertยป, ยซIA Strategistยป o mi favorita, ยซThought Leader en Inteligencia Artificialยป.

Me fui a casa con una mezcla de fastidio y genuina preocupaciรณn.

Porque yo llevo mรกs de treinta aรฑos en el mundo de la tecnologรญa. Tomรฉ la decisiรณn de crear Human-IA precisamente para pensar en serio sobre lo que la IA significa para las personas. Leo, experimento, entrevisto, me equivoco, corrijo. Llevo tiempo observando desde este puente. Y sin embargo, no me llamo experto en IA. No me lo llamo porque serรญa mentira. Y creo que la mentira, en este campo concreto y en este momento concreto, tiene consecuencias muy reales.

Dรฉjame explicarte por quรฉ.


La calculadora y el matemรกtico

Cuando las calculadoras de bolsillo empezaron a aparecer masivamente en los aรฑos setenta, hubo un fenรณmeno curioso. Mucha gente que aprendรญa a usar la calculadora empezaba a creerse, de alguna forma, matemรกtica. No lo decรญan asรญ de claro, claro estรก. Pero el razonamiento implรญcito era ese: si la mรกquina me da el resultado, yo que sรฉ manejar la mรกquina tengo algo del matemรกtico. El instrumento prestaba su aura al usuario.

Los matemรกticos de verdad observaban aquello con una mezcla de humor y alarma. No porque les molestara que la gente usara calculadoras โ€” eran herramientas fantรกsticas, como sigue siรฉndolo hoy. Sino porque empezar a confundir ยซsรฉ pulsar botonesยป con ยซentiendo lo que estoy calculandoยป tiene consecuencias. No inmediatas. No dramรกticas. Pero reales.

Con la IA generativa estรก pasando algo parecido, pero amplificado por internet, por LinkedIn, por el ciclo de hype mediรกtico y por el hecho de que las herramientas actuales son genuinamente impresionantes. Cuando ChatGPT te escribe un informe en treinta segundos, cuando Midjourney te genera una imagen que parece un รณleo del siglo XVII, cuando Claude te ayuda a estructurar un argumento complejoโ€ฆ es difรญcil no sentir que estรกs tocando algo grande. Y ese asombro, que es legรญtimo y que yo mismo he sentido muchas veces, se convierte fรกcilmente en la ilusiรณn de que entiendes cรณmo funciona lo que acabas de usar.

No funciona asรญ. Y la diferencia importa.

El telar de Jacquard fue una revoluciรณn tecnolรณgica que muchos operarios podรญan usar sin entender. Lo que no podรญan hacer, al menos no sin aรฑos de trabajo real, era diseรฑar el siguiente telar. Hoy cualquiera puede usar un modelo de lenguaje. Lo que no puede hacer cualquiera โ€” aunque muchos finjan que sรญ โ€” es entender sus limitaciones, sus sesgos, sus fallos sistรฉmicos, sus implicaciones รฉticas, su arquitectura real. Eso requiere algo que tres semanas de ChatGPT no dan.


El coste real del ruido

Esto no serรญa especialmente grave si se quedara en el terreno de la vanidad personal. Cada cual se pone en su LinkedIn el tรญtulo que quiere, y el mercado acabarรก poniendo a cada uno en su sitio. El problema es que no estamos hablando de vanidad inocua. Estamos hablando de decisiones con consecuencias econรณmicas y humanas concretas.

He visto โ€” y ya escribรญ sobre ello en mรกs detalle en esta guรญa para identificar empresas cantamaรฑanas de IA โ€” cรณmo directivos toman decisiones de cientos de miles de euros basรกndose en presentaciones de alguien que lleva tres semanas usando una API. Empresas que implementan ยซsoluciones de IAยป que en realidad son una llamada a la API de OpenAI con una capa de pintura encima, vendidas como tecnologรญa propietaria revolucionaria. Organizaciones que abandonan procesos humanos que funcionaban bien, convencidas por un ยซexpertoยป de que la automatizaciรณn lo harรญa mejor, y que descubren meses despuรฉs que nadie habรญa pensado en los casos extremos, en los sesgos, en la supervisiรณn necesaria, en los fallos del sistema cuando los datos son ambiguos.

El daรฑo no es solo econรณmico. Hay algo mรกs profundo. Cuando estos proyectos fallan โ€” y fallan con bastante frecuencia cuando los lidera quien no sabe lo que hace โ€” la conclusiรณn que saca la organizaciรณn no suele ser ยซelegimos mal al asesorยป. La conclusiรณn suele ser ยซla IA no funcionaยป. Y eso es un retroceso real en un campo donde el pensamiento crรญtico sobre la tecnologรญa es precisamente lo que mรกs falta hace.

El ruido de los falsos expertos no solo desperdicia dinero. Envenena el pozo.


La honestidad como postura radical

Hay algo que me parece extraรฑo y a la vez esperanzador en este momento: decir ยซno sรฉยป en el mundo de la IA se ha convertido en un gesto casi subversivo.

Pruรฉbalo. La prรณxima vez que alguien te explique con total seguridad cรณmo funciona un modelo de lenguaje, cรณmo va a transformar tu sector, quรฉ debes hacer exactamente con la IA en tu empresaโ€ฆ pregรบntale algo concreto. No algo tรฉcnico y trampa. Algo sencillo: ยซยฟY cuรกndo esto falla, cรณmo falla?ยป o ยซยฟQuรฉ no puede hacer bien todavรญa?ยป Si la respuesta es fluida y honesta, estรกs ante alguien que sabe de lo que habla. Si la respuesta es mรกs ruido brillante, ya sabes dรณnde estรกs.

Yo llevo tiempo con esta pregunta como filtro. Y el resultado es revelador.

Lo que he descubierto โ€” y esto me parece mรกs importante que cualquier herramienta o tรฉcnica โ€” es que las personas y organizaciones mรกs รบtiles en este campo no son las que mรกs seguridad proyectan. Son las que mรกs claramente distinguen lo que saben de lo que intuyen, lo que han probado de lo que han leรญdo, lo que funciona en su contexto de lo que funciona en el papel. La incertidumbre honesta es mucho mรกs valiosa que la certeza impostada.

Desde Human-IA llevamos tiempo preguntรกndonos si la IA nos hace mรกs capaces o mรกs dependientes. Una de las respuestas que mรกs me convence es esta: depende de si la usas con criterio propio o delegas ese criterio a la herramienta o, peor aรบn, a quien dice saber usarla mejor que tรบ.


Lo que yo soy, y lo que no soy

Tengo mรกs de treinta aรฑos en el sector tecnolรณgico. He trabajado en innovaciรณn, en docencia universitaria, en investigaciรณn aplicada. He producido una รณpera pop con IA, he experimentado con agentes, he usado herramientas que controlan el ordenador de forma autรณnoma, he construido cosas que hace dos aรฑos no podรญa imaginar que podrรญa construir solo. He leรญdo mucho. He pensado mรกs. Me he equivocado bastante.

Soy alguien que lleva tiempo prestando atenciรณn, que ha usado mucho (no jugado) con estas herramientas, que ha cometido errores instructivos y que intenta pensar en voz alta desde este puente sobre lo que ve. Eso es lo que hago aquรญ. No mรกs.

Lo digo porque creo que hay algo valioso en ese reconocimiento. No es modestia performativa. Es que en un campo que cambia tan rรกpido, donde los modelos de hace seis meses ya son historia, donde los investigadores de verdad โ€” los que publican papers, los que construyen los sistemas desde dentro โ€” reconocen pรบblicamente que hay aspectos fundamentales que no entienden del todoโ€ฆ llamarse experto no es ambiciรณn. Es un sรญntoma.

La prรณxima vez que alguien te ofrezca su expertise en IA, fรญjate en si es capaz de decirte con la misma convicciรณn quรฉ es lo que no sabe. Si puede hacerlo, escรบchale. Si no puede, sigue buscando.

InteligenciaArtificial #IA #PensamientoCrรญtico #TransformaciรณnDigital #Liderazgo #ร‰tica #Innovaciรณn #Productividad #Tecnologรญa


Deja una respuesta

Tu direcciรณn de correo electrรณnico no serรก publicada. Los campos obligatorios estรกn marcados con *