En 1937, George Stibitz, matemático en Bell Labs, no tenía presupuesto, ni proyecto estratégico, ni una presentación para convencer a nadie.
Tenía una intuición.
Cogió relés telefónicos viejos, bombillas de linterna y tiras metálicas recortadas de lo que encontró a mano. Y en la mesa de su cocina montó un pequeño sumador binario.
Lo llamó Modelo K, por Kitchen.
No era bonito. No era escalable. No era «un producto».
Pero demostraba algo crucial: el cálculo podía automatizarse con la tecnología que ya existía.
«Esto no va a ninguna parte»
Cuando Stibitz enseñó aquel artefacto en Bell Labs, la reacción fue lógica, incluso sensata: escalar eso iba a ser carísimo, los relés servían para telefonía (no para matemáticas), y aquello parecía más un experimento curioso que una base seria.
- Escalar eso iba a ser carísimo.
- Los relés servían para telefonía, no para matemáticas.
- Aquello parecía más un experimento curioso que una base seria.
Tenían razón… si mirabas solo el presente.
Tres años después, ya no era un juguete
Bell Labs decidió seguir adelante. Entre 1939 y 1940 entró en funcionamiento la Complex Number Calculator, una máquina basada en relés capaz de trabajar con números complejos.
Permitía algo que hoy nos parece trivial y entonces era casi ciencia ficción: enviar un cálculo por línea telefónica y recibir el resultado a distancia.
Hay un detalle importante que suele pasarse por alto. Según el vídeo divulgativo The first remote computer demonstration, la construcción de esta máquina costó unos 20.000 dólares de la época y ese gasto no fue bien recibido por Bell Labs.
En 1940 eso no era calderilla. Era una apuesta seria por algo que, pocos años antes, se había descartado como inviable.
La computación nunca ha sido barata
Y no, no se volvió barata de repente. En 1937 teníamos el Modelo K: chatarra, cocina, intuición. En 1944, la Harvard Mark I diseñada por Howard Aiken: una mole electromecánica de cientos de miles de piezas. En 1946, ENIAC: tubos de vacío, consumo eléctrico brutal, mantenimiento constante.
Durante décadas, los ordenadores fueron grandes, caros y poco amables. Si uno miraba solo la factura, parecía una mala idea.
El detalle que lo cambia todo: los relés
Aquí está la clave.
Los ordenadores nacieron usando relés… y acabaron haciendo que los relés dejaran de ser necesarios.
Los relés eran la base de las centrales telefónicas, la conmutación industrial y el control ferroviario. La computación no se limitó a usarlos. Los empujó hasta su límite y luego los sustituyó: primero por tubos de vacío, después por transistores, más tarde por chips.
La tecnología original no desapareció por inútil. Desapareció porque algo más general y potente tomó su lugar.
Y ahora, la IA
Hoy escuchamos que la inteligencia artificial es una burbuja porque los centros de datos cuestan miles de millones, el consumo energético es alto y el retorno no siempre es inmediato.
Es el mismo tipo de argumento que se usó contra la computación durante años.
La pregunta nunca fue cuánto costaba la infraestructura. La pregunta era qué iba a transformar.
Lo que la historia enseña (si queremos mirarla)
La computación no creció de forma cómoda ni progresiva. Creció a base de apuestas grandes sobre tecnologías que parecían excesivas, inmaduras o directamente inútiles.
A día de hoy la IA está siguiendo el mismo camino: prototipos que parecen juguetes, escalado que genera incomodidad, e integración total hasta que deja de percibirse como algo separado.
No estamos ante una burbuja. Estamos viendo cómo se construye una infraestructura que acabará integrándose en todo lo demás.
Para cerrar
Como dijo Howard Aiken: «La cuestión no es si la máquina puede pensar, sino qué somos capaces de hacer nosotros con ella.»
La historia ya nos ha mostrado este patrón. La incógnita no es si volverá a ocurrir, sino qué haremos esta vez con la tecnología que estamos creando.

Deja una respuesta