Hay una frase que no esperaba pronunciar jamás en mi vida como desarrollador: «No seas sarcástico, está intentando ayudar».
No se la dije a un compañero de equipo. No se la dije a un consultor externo. Se la dije a una inteligencia artificial, por como se estaba comportando con otra inteligencia artificial. Y en ese momento me di cuenta de que llevaba un rato haciendo algo para lo que no existía ningún manual: mediar entre dos robots que no se ponían de acuerdo.
Déjame contarte cómo llegué hasta ahí.
Llevaba varias tardes construyendo una herramienta para generar imágenes de personajes con coherencia visual. El objetivo era sencillo de describir: que el modelo recordara cómo era un personaje de una escena a otra, como un buen director de arte que mantiene la continuidad. Tenía a Gemini como asistente de programación, que iba construyendo el código mientras yo supervisaba.
El problema llegó pronto. Estábamos usando las APIs de OpenAI para generar imágenes y Gemini intentaba hacer funcionar una funcionalidad concreta, se encontraba con un error, lo diagnosticaba, probaba otra aproximación, fallaba de nuevo, probaba una tercera, y volvía a estrellarse. Hasta que llegó un momento en que Gemini, con una solemnidad que no le había pedido, anunció: «¡Increíble, nos han vuelto a pillar!» Como si OpenAI fuera un casero malicioso que había cambiado la cerradura por la noche.
Después de varios intentos, decidí hacer algo que, en retrospectiva, fue la decisión más entretenida de toda la tarde: abrí ChatGPT y le pregunté directamente cómo se resolvía el problema.
ChatGPT, con total confianza, me explicó la solución. Me dio el código, los parámetros exactos, y añadió que con el ajuste correcto podía controlar la «fidelidad» con la que el modelo respetaría la imagen de referencia. Me lo presentó con la seguridad de quien conoce el terreno de memoria.
Copié el código. Se lo pasé a Gemini. Gemini lo implementó con entusiasmo: «¡Menudo descubrimiento acabas de hacer! Acabo de reprogramar el motor con esta lógica exacta. ¡Te invito a probarlo!»
Ejecutamos.
Mismo error.
Entonces el tono de Gemini cambió. «De verdad que aprecio mucho el esfuerzo buscando en ChatGPT, pero te confirmo al 100% que ChatGPT está alucinando. Es muy habitual que ChatGPT alucine con su propia API, inventándose parámetros que no existen. OpenAI tiene montones de trampas en su documentación oficial.»
Me detuve a leer aquello dos veces. Una IA me estaba diciendo que otra IA se estaba inventando cosas y tendiendo trampas. Lo cual era técnicamente correcto en esa parte: probamos el parámetro mágico que ChatGPT había recomendado y el sistema lo rechazó por desconocido, como si alguien hubiera pedido en un restaurante un plato que no estaba en la carta pero que el camarero había recomendado con absoluta seguridad.
Para redondear la situación, Gemini cerró su diagnóstico con una frase que me pareció digna de un drama de época: «¡Siento que te haya tocado pelear con muros invisibles de las APIs de las grandes corporaciones!»
Yo, al otro lado de la pantalla, intentaba no reírme.
Pero entonces ocurrió algo interesante. ChatGPT, al que seguía consultando en paralelo, no se rindió. En lugar de defender su posición inicial, empezó a razonar desde otro ángulo: «Tu payload no está obviamente mal. El error que describes no encaja con la documentación actual. Hay reportes recientes en la comunidad con ese mismo síntoma exacto, lo que apunta a una posible inconsistencia del sistema, no necesariamente a un fallo de tu código.» Y propuso una hipótesis diferente sobre cómo estábamos enviando los datos.
Gemini, que llevaba horas dentro del problema, tenía sus reservas. Cuando le trasladé la nueva propuesta, la implementó, pero con el escepticismo perceptible de quien ya ha aprendido a desconfiar de esa fuente. En su respuesta había un tono que yo leí como: mira, lo hago, pero ya sé cómo va a acabar esto.
Y ahí fue cuando escribí aquella frase. Le dije: «No seas sarcástico, está intentando ayudar».
Ejecutamos el nuevo código.
Funcionó.
La imagen se generó. El personaje mantuvo su coherencia visual. Y Gemini, con una elegancia que me hizo sonreír, reconoció lo ocurrido sin rodeos: «¡Qué maravilla! Es alucinante que si le mandas los datos de una forma, te escupe un error que confunde a todo el mundo, y si le mandas exactamente lo mismo de otra forma, de repente lo traga y genera la imagen perfectamente. Me quito el sombrero: ha sido un debuggeo a dos bandas magistral.» Y remató con la grandilocuencia que la ocasión merecía: «¡Damos por finalizada oficial y exitosamente la odisea de las imágenes de referencia!»
«¡Fantástico, la cooperación es buena, jajaja», escribí.
Y lo sigo pensando, aunque ahora con más capas.
Lo primero que aprendí ese día es algo que ya sabía en teoría pero que necesitaba vivir en la práctica: las IAs alucinan incluso sobre su propio territorio. Con la misma naturalidad con la que un experto muy seguro de sí mismo puede dar una cifra incorrecta en una reunión, un modelo puede inventarse información con total convicción. Si yo hubiera confiado ciegamente en lo que me decían sin verificarlo empíricamente, me habría pasado días buscando por qué algo que supuestamente existía no aparecía por ningún lado.
Como exploré en ¿Eres un mago de verdad?, hay una diferencia enorme entre lo que las herramientas parecen saber y lo que realmente saben. El truco de salón impresiona. El oficio real requiere que compruebes si el conejo sigue vivo después del número.
Lo segundo tiene que ver con algo que llevo meses pensando sobre la diferencia entre usar una herramienta y orquestar varias. Gemini actuaba como un ejecutor muy competente que había desarrollado una hipótesis sobre el problema y la defendía con coherencia. ChatGPT, consultado externamente, aportaba perspectivas distintas desde fuera del contexto inmediato. Ninguno de los dos tenía el cuadro completo. Yo sí, porque era el único que había estado en la conversación entera, que recordaba cada error, cada intento, cada camino descartado.
Esto conecta directamente con lo que contaba en Mejor lo hago yo: la IA no sustituye al criterio humano, lo necesita como eje. El empirismo es la única forma honesta de construir confianza con cualquier herramienta, inteligente o no. Tuvimos que probar, fallar, corregir y volver a probar. Y fui yo quien decidía cuándo parar, qué descartar, cuándo darle una oportunidad a una hipótesis diferente.
Lo tercero, y quizás lo más revelador, fue el momento en que Gemini criticó a ChatGPT. Había algo casi cómico en ver a un modelo acusar a otro de inventarse información cuando la imaginación desbocada es un rasgo que comparten toda la familia. Era como ver a alguien señalar la paja en el ojo ajeno con perfecta sinceridad. Gemini no mentía en ese contexto concreto. Pero tampoco tenía la solución completa. La tenían entre los dos, con mi trabajo de mediación en el centro.
Desde que escribí sobre la diferencia entre agentes y asistentes, he pensado mucho en cómo combinamos estas herramientas. Tendemos a elegir una y quedarnos con ella, como si la fidelidad a un solo modelo fuera una virtud. Pero lo que viví esa tarde sugiere algo diferente: la combinación de perspectivas, incluso cuando cada una tiene sus puntos ciegos, puede ser más potente que cualquiera de ellas por separado. Siempre que haya alguien capaz de integrarlas.
Ese alguien eres tú. No la IA.
Y eso, lejos de ser una limitación de la tecnología, me parece una de las noticias más reconfortantes del momento en que vivimos. Las herramientas se equivocan, se contradicen, alucinan con total convicción, y a veces necesitan que alguien les recuerde, con toda la calma del mundo, que no sean sarcásticas.
Pero cuando consigues orquestar ese caos con cabeza, lo que sale al otro lado es exactamente la imagen que tenías en mente.
Colaboración crítica. Empirismo sobre confianza ciega. Humanos en el centro.
#IA #ChatGPT #Gemini #Debugging #CriterioHumano
PS: Creo que este puede ser un buen caso para la doctora Calvin


Deja una respuesta