En el programa del 26 de enero de 2026 de Deep Business, estuvimos hablando con Eduardo Hilario sobre el futuro de la programación. María José planteó la pregunta que todos llevamos semanas escuchando en seminarios, foros y conversaciones de café: «¿Esto va a dejar sin trabajo a muchos desarrolladores o es una herramienta para poder hacer todavía más cosas?»

Mi respuesta la di casi sin pensar, desde la intuición: «Me preocupa que haya desarrolladores que no la estén utilizando ya.» Eduardo coincidió inmediatamente. Ambos compartimos la certeza de que el verdadero peligro no es que la IA sustituya a los programadores, sino que algunos programadores se resistan a evolucionar con ella. Pero después del programa, esa conversación se me quedó dando vueltas. Había algo más profundo ahí, algo que no terminé de articular en el directo.

Días después, escuchando el reciente Town Hall de Sam Altman con el equipo de OpenAI, todo cobró sentido. Altman no habló de si la IA va a eliminar trabajos o crear otros. Habló de algo mucho más fundamental: estamos viviendo la deflación de la inteligencia. Y esa frase lo cambia absolutamente todo.

Cuando un año de trabajo cuesta mil dólares

Déjenme ponerlo en números concretos, porque esto no es una metáfora ni una proyección a largo plazo. Altman dice que para finales de 2026 —es decir, dentro de once meses—, tareas que hoy requieren un equipo humano completo y un año de trabajo se podrán realizar con aproximadamente mil dólares de cómputo. Léanlo otra vez. Mil dólares. Un año de trabajo de un equipo especializado.

Esto no es una mejora incremental. Es un cambio de categoría. Es como si de repente la energía eléctrica costara un céntimo de lo que cuesta ahora, o como si pudiéramos viajar de Madrid a Tokio en una hora por el precio de un menú del día. Cuando algo que era escaso y caro se vuelve abundante y barato, todo el sistema se reconfigura.

Pero aquí viene lo fascinante, lo que conecta directamente con aquella conversación del lunes en Deep Business: cuando la inteligencia se abarata, la demanda de inteligencia no baja. Explota. Es lo que los economistas llaman la Paradoja de Jevons, y es exactamente lo contrario de lo que nuestra intuición nos dice.

William Stanley Jevons era un economista británico que en 1865 observó algo extraño en las minas de carbón. Cuando James Watt mejoró la eficiencia de las máquinas de vapor haciendo que consumieran menos carbón por unidad de trabajo, todo el mundo asumió que el consumo total de carbón bajaría. Pero pasó exactamente lo contrario. El consumo de carbón se disparó. ¿Por qué? Porque al ser más eficiente, de repente había mil aplicaciones nuevas para las que las máquinas de vapor tenían sentido económico. Lo que antes era un lujo exclusivo de grandes fábricas ahora podía estar en todas partes.

Altman aplicó esta misma lógica a la programación durante el Town Hall, y es aquí donde mi conversación con Eduardo encontró su explicación más profunda. Cuando escribir código se vuelve casi gratuito, no habrá menos programadores. Habrá más programadores que nunca. Porque de repente, cada persona con una idea podrá materializar esa idea en software funcional. El barman que siempre quiso una app para gestionar su bar. La profesora que necesita una herramienta específica para sus alumnos. El agricultor que imagina un sistema para optimizar el riego. Todos ellos se convertirán en «programadores» en el sentido de que podrán crear software, aunque no sepan escribir una línea de código.

Eduardo lo expresó perfectamente en el programa cuando habló de la diferencia entre el software «inocuo» —una página web simple con información de contacto— y el software crítico —una aplicación bancaria que maneja datos sensibles—. El primero ya es accesible para cualquiera con vibe coding. El segundo todavía necesita arquitectos que entiendan las capas profundas del sistema. Pero la frontera entre ambos se está moviendo vertiginosamente. Y lo que hoy requiere un arquitecto experto, mañana será commodity.

De chat a agente: el salto que cambia todo

Durante el Town Hall, Altman dejó claro algo que también resonó con nuestra conversación del lunes: estamos pasando de modelos que responden preguntas a modelos que hacen cosas. Ya no hablamos de un asistente que te ayuda a redactar un email. Hablamos de un agente que abre tu cliente de correo, redacta el email, lo envía, verifica que llegó, hace seguimiento si no hay respuesta, agenda una reunión cuando la hay, y actualiza tu calendario. Todo eso mientras tú estás haciendo otra cosa.

Eduardo mencionó en el programa el caso de Codex, la herramienta de OpenAI que se conecta a tu repositorio de código y puede trabajar durante horas mejorando, refactorizando, corrigiendo. Eso ya no es un chat. Es un colega digital que trabaja en paralelo contigo. Y cuando tienes un colega que nunca se cansa, que puede probar mil variantes de una solución mientras tú duermes, que tiene acceso instantáneo a toda la documentación existente, el cuello de botella deja de ser la capacidad técnica. El cuello de botella se convierte en saber qué problema resolver.

Esta es la parte que más me inquieta y emociona a la vez. Altman insiste en que en un mundo donde crear es «gratis», la parte más difícil seguirá siendo el Go-To-Market, la capacidad de captar atención humana. Porque la atención humana es el único recurso que no se puede escalar con IA. No podemos fabricar más horas al día. No podemos clonar la curiosidad genuina de una persona por tu producto. No podemos automatizar la confianza.

Por eso les dije a nuestros oyentes del lunes que me preocupan los desarrolladores que no están usando IA. No porque vayan a perder su trabajo frente a la máquina, sino porque van a perder su trabajo frente a otros desarrolladores que sí entienden cómo convertir a la IA en su multiplicador de fuerza. La ventaja competitiva ya no es saber picar código más rápido. Es saber diseñar mejores arquitecturas, plantear mejores problemas, entender qué merece la pena construir y qué no.

El software efímero y el fin del producto estático

Una de las ideas más provocadoras que compartió Altman es la del «software efímero». Imaginen aplicaciones que se escriben en milisegundos para una única tarea de un solo usuario y luego se borran. Suena a ciencia ficción, pero ya está pasando. Cada vez que le pides a ChatGPT o Claude que te genere un pequeño script para procesar un archivo CSV, ya estás usando software efímero. La diferencia es que pronto ese software no será un script de 20 líneas, sino aplicaciones completas con interfaz gráfica, persistencia de datos y toda la complejidad que necesites.

Esto destruye completamente el modelo mental tradicional del software como producto. Hemos pasado décadas pensando en el software como algo que se diseña meticulosamente, se desarrolla durante meses, se empaqueta, se vende, se mantiene con parches y actualizaciones. Pero si el software se puede generar bajo demanda en segundos, ¿por qué vamos a seguir usando aplicaciones genéricas que intentan servir a millones de usuarios con necesidades diferentes?

Eduardo tocó este punto cuando habló de automatizaciones, de esa gente que ya dice «hice mi primera automatización» con el mismo orgullo con el que hace treinta años alguien decía «hice mi primera hoja de Excel». Esa es la democratización real. No es que todo el mundo se convierta en ingeniero de software. Es que todo el mundo puede expresar una intención y el software aparece para cumplirla.

Pero —y este pero es crucial— Eduardo también advirtió sobre los riesgos. La ciberseguridad sigue siendo un problema masivo. Hay gente que ha montado aplicaciones con vibe coding para gestionar dinero o datos sensibles y a las dos horas estaban hackeadas. La herramienta te da poder, pero no te da criterio. Y ahí es donde volvemos a lo mismo: la IA amplifica lo que eres. Si eres cuidadoso y piensas en las implicaciones de seguridad, la IA te ayudará a construir sistemas robustos. Si eres descuidado y solo quieres que algo funcione ya, la IA te ayudará a construir una catástrofe más rápido de lo que hubieras podido hacerlo solo.

La educación en la era de la inteligencia barata

Durante el Town Hall, alguien le preguntó a Altman sobre educación y niños. Su respuesta fue tajante y refrescante: mantener las computadoras fuera del jardín de infancia. En los primeros años, lo vital es el juego físico, la interacción social, aprender a resolver conflictos con otros humanos, desarrollar motricidad, explorar el mundo con las manos y el cuerpo. La IA puede esperar.

Pero cuando hablamos de educación más avanzada, Altman insiste en algo que desde Human-IA llevamos años defendiendo: la meta no es formar «usuarios eficientes de IA». La meta es formar personas con alta agencia. Personas que saben usar herramientas para resolver problemas. Personas que no se rinden cuando algo falla. Personas que entienden que la herramienta es neutral, que lo que importa es qué decides hacer con ella.

Esta capacidad de «alta agencia» está directamente relacionada con lo que investigadores de Harvard Business Review identificaron recientemente como metacognición: la habilidad de monitorear, planificar y refinar el propio pensamiento. Su estudio reveló algo fundamental: la IA potencia la creatividad principalmente en empleados con fuerte capacidad metacognitiva, mientras que aquellos que simplemente usan la IA sin reflexión crítica obtienen resultados mediocres o incluso contraproducentes.

En nuestra conversación del lunes, Eduardo dijo algo que se me quedó grabado: «Si yo fuera desarrollador, aprendería sobre todo de arquitectura.» Exacto. Porque la arquitectura es pensamiento de alto nivel. Es entender cómo se conectan las piezas, qué depende de qué, dónde están los cuellos de botella, qué puede fallar y cómo. Esa capacidad de pensamiento sistémico no se puede automatizar porque es precisamente lo que le da sentido a la automatización.

La paradoja es hermosa: en un mundo donde las máquinas pueden escribir código perfecto, el trabajo más valioso es el que las máquinas no pueden hacer. Pensar profundamente sobre qué problemas merecen solución. Imaginar futuros que todavía no existen. Conectar ideas que parecen inconexas. Entender las necesidades humanas que ni siquiera se han articulado todavía. Otro estudio reciente de Harvard Business Review sobre cómo los LLMs desbloquean ideas más creativas cuando se usan correctamente confirma esto: la IA funciona mejor como socio de pensamiento que ayuda a explorar más ideas, ángulos y direcciones, pero siempre con el humano manteniendo el control del juicio y la intención. Eso es alta agencia. Y es exactamente lo que necesitamos cultivar.

Por qué el arte humano seguirá siendo valioso (y esto no es romanticismo)

En el Town Hall, Altman abordó directamente una de las preguntas más incómodas: si la IA puede generar imágenes perfectas, música indistinguible de lo humano, textos brillantes, ¿qué valor tendrá el arte humano? Su respuesta fue inesperadamente profunda: el arte es, en última instancia, comunicación entre humanos. Valoramos el arte no solo por el resultado estético, sino por la conexión emocional con el autor.

Esto conecta directamente con Casino 25, nuestro proyecto de ópera pop creado con IA bajo supervisión humana. Lo que hace valioso a Casino 25 no es que los instrumentos sean virtuales o que las voces estén generadas. Lo que lo hace valioso es la intención detrás, la visión artística que guía cada decisión, el mensaje social que queremos transmitir sobre el Universo 25 de Calhoun y sus paralelismos con nuestra sociedad hiperconectada pero alienada.

La IA no creó Casino 25. Nosotros lo creamos. La IA fue el instrumento, como el pincel es el instrumento del pintor o el cincel del escultor. La diferencia es que este instrumento nos permitió materializar una visión que de otra manera habría requerido un estudio de grabación, músicos profesionales, ingenieros de sonido, un presupuesto de decenas de miles de euros y meses de producción. Toda esa barrera desapareció. Pero la necesidad de tener algo que decir, una visión que compartir, un propósito que guíe el proceso, eso no desaparece. Se vuelve más importante que nunca.

Porque cuando crear es fácil, lo difícil es tener algo valioso que crear.

La geopolítica de la AGI y por qué esto nos concierne a todos

Altman dedicó una parte significativa del Town Hall a algo que muchos prefieren ignorar: la geopolítica de la inteligencia artificial general (AGI). Su argumento es directo y perturbador: es vital que las democracias lideren el desarrollo de AGI, porque quien controle esta tecnología tendrá un poder sin precedentes para moldear el futuro de la humanidad.

No estamos hablando de ciencia ficción. Estamos hablando de sistemas que en 12 a 36 meses podrían razonar, planificar, ejecutar tareas complejas y tomar decisiones con implicaciones masivas. Si esa tecnología se desarrolla principalmente bajo regímenes autoritarios que no respetan los derechos humanos, que censuran información, que controlan lo que su población puede pensar y decir, esos valores quedarán codificados en los sistemas que gobiernen la próxima era.

Desde Human-IA siempre hemos defendido que la IA debe expandir el potencial humano, no controlarlo. Que debe amplificar nuestra creatividad, no reemplazarla. Que debe ayudarnos a resolver problemas complejos, no a perpetuar sesgos y desigualdades. Pero eso solo ocurrirá si las sociedades que valoran esos principios participan activamente en su desarrollo. No podemos delegar esto. No podemos sentarnos a ver qué pasa. Porque lo que está en juego no es solo tecnología, sino el tipo de futuro que vamos a habitar.

Altman también mencionó algo crucial sobre bioseguridad. La respuesta a los riesgos de que la IA facilite el desarrollo de patógenos peligrosos no es prohibir el conocimiento. Es usar la IA para crear sistemas de defensa biológica que detecten amenazas en tiempo real. Es la carrera armamentística clásica, pero con una diferencia: aquí todos somos potenciales víctimas y todos necesitamos que el escudo funcione.

La infraestructura: cuando los átomos limitan los bits

Una de las partes más pragmáticas del Town Hall fue cuando Altman habló de la «crisis de los átomos». El progreso de la IA no está limitado por algoritmos o ideas. Está limitado por nuestra capacidad física de construir centros de datos masivos y generar la energía necesaria para alimentarlos. Estamos hablando de infraestructura a escala que no se ha visto desde la construcción de las redes eléctricas nacionales o las autopistas interestatales.

Esto tiene implicaciones enormes. Significa que países con capacidad de generar energía limpia a gran escala —idealmente nuclear o fusión, eventualmente— tendrán una ventaja estratégica. Significa que las decisiones sobre dónde se construyen estos centros de datos afectarán economías regionales durante décadas. Significa que estamos ante una redistribución masiva de poder económico y geopolítico basada en algo tan mundano como kilovatios por hora.

En nuestra conversación del lunes con Eduardo, tocamos de pasada el tema de la dependencia de terceros cuando se usan plataformas de vibe coding o automatización. Si toda tu operación crítica depende de servidores que no controlas, cuando esos servidores caen —y caen, siempre caen en algún momento—, tu negocio se paraliza. Ese riesgo se multiplica cuando hablamos de AGI. Si tu empresa, tu gobierno, tu infraestructura crítica dependen de modelos de IA alojados en otro país, ¿qué pasa si ese otro país decide cerrar el acceso por razones políticas, económicas o de seguridad?

La soberanía digital, que hasta hace poco sonaba a palabrería política, de repente se vuelve tan concreta como la soberanía alimentaria o energética.

El cuello de botella real: atención humana y propósito auténtico

Vuelvo a la idea central que Altman repitió varias veces: en un mundo donde crear productos es casi gratuito, la parte más difícil sigue siendo el Go-To-Market. Y el Go-To-Market, en su esencia, es captar atención humana. No atención pasiva de scroll infinito, sino atención genuina, interesada, comprometida. El tipo de atención que solo das cuando algo realmente te importa.

Esto conecta directamente con lo que defendemos desde Human-IA sobre la importancia del pensamiento crítico y el propósito auténtico. Si cualquiera puede generar contenido infinito, si cualquiera puede crear aplicaciones funcionales en minutos, si cualquiera puede producir música, arte, escritura que suena profesional, ¿qué diferencia a lo valioso de lo irrelevante?

La diferencia está en la intención. En tener algo genuino que comunicar. En resolver un problema real que alguien tiene. En conectar con una necesidad humana profunda, no superficial. La democratización de las herramientas de creación no borra esa diferencia. La amplifica. Porque ahora que todos pueden crear, lo único que destaca es lo que realmente merece existir.

Esto explica por qué me preocupan los profesionales —no solo desarrolladores, cualquier profesional— que ven la IA como una amenaza en lugar de como un amplificador. Porque están mirando el problema equivocado. La pregunta no es «¿puede la IA hacer mi trabajo?» La pregunta es «¿qué valor único aporto yo que justifica que alguien me preste atención?» Si tu respuesta es «puedo escribir código más rápido» o «puedo diseñar logos en Photoshop», estás en problemas. Pero si tu respuesta es «entiendo profundamente el problema de mis clientes y sé cómo conectar tecnología con necesidad humana», entonces la IA te convierte en superhéroe.

Startups y el problema del foso que desaparece

Altman fue brutalmente honesto sobre un tema que aterra a muchos emprendedores: si tu ventaja competitiva es algo que OpenAI puede resolver con una actualización de modelo, tu negocio es frágil. Construir sobre los «huecos» actuales de GPT-4 es una trampa. Porque esos huecos se están llenando cada trimestre.

La recomendación es clara: construye pensando en que el próximo modelo será 100 veces más capaz que el actual. No preguntes «¿qué puede hacer mi startup que GPT-4 no puede?» Pregunta «¿qué puede hacer mi startup que seguirá siendo valioso cuando GPT-6 sea tan capaz como un equipo humano experto?»

La respuesta casi siempre está en capas que las IAs genéricas no pueden replicar: conocimiento profundo de un nicho específico, relaciones establecidas con clientes, datos propietarios sobre problemas concretos, experiencia acumulada en resolver fricción humana que no es puramente técnica. En otras palabras, el foso ya no está en la tecnología. Está en la comprensión humana del contexto.

Esto me recuerda a nuestra reflexión sobre las empresas «cantamañanas» de IA. Muchas startups están vendiendo «soluciones de IA» que básicamente son un prompt bonito sobre GPT-4 con una interfaz de usuario. Eso no es un negocio sostenible. Es una feature que OpenAI incluirá en su próxima actualización. El negocio real está en resolver problemas que requieren más que tecnología: requieren entender profundamente un dominio, tener acceso a datos únicos, construir confianza en un sector específico.

Privacidad, personalización y el futuro de la identidad digital

Una parte fascinante del Town Hall fue cuando Altman habló sobre permitir que te identifiques en otras aplicaciones con tu cuenta de OpenAI, llevando contigo tu «memoria» y preferencias personales. Esto plantea preguntas enormes sobre privacidad y control de datos. ¿Quién posee tu historial de conversaciones con ChatGPT? ¿Qué pasa cuando ese historial contiene información médica, financiera, personal profunda?

Desde Human-IA hemos insistido en la importancia de saber con quién compartes tu información. Hace poco experimenté directamente cómo Gemini tenía acceso a detalles íntimos de mis compras online que yo no recordaba haberle compartido explícitamente. Esa experiencia me dejó inquieto, porque reveló cuán porosos son los límites entre lo que conscientemente compartimos y lo que las IAs infieren o acceden por integración con otros servicios.

La promesa de Altman es que esta memoria personalizada estará «bajo tu control». Pero todos sabemos lo que suele significar «bajo tu control» en términos de servicio de 47 páginas escritas por abogados. El desafío real es que para que una IA sea genuinamente útil, necesita contexto profundo sobre tu vida, tu trabajo, tus preferencias, tus relaciones. Pero ese nivel de acceso también crea un perfil digital más completo y vulnerable de lo que jamás ha existido.

No tengo respuestas fáciles aquí. Solo sé que necesitamos participar activamente en diseñar cómo funcionan estos sistemas. No podemos delegar esas decisiones únicamente a las empresas tecnológicas y esperar que prioricen nuestros intereses sobre sus modelos de negocio.

Razonamiento profundo y la calidad de la prosa: el equilibrio pendiente

Una confesión interesante de Altman fue admitir que al enfocarse tanto en capacidades de razonamiento lógico (la serie O1 de modelos) y en generación de código, han descuidado la calidad de la prosa. Los modelos suenan cada vez más robóticos, menos humanos, menos matizados. Y eso es un problema, porque buena parte del valor de una IA conversacional está en su capacidad de comunicarse de manera natural, de entender contexto emocional, de adaptar tono y estilo.

Esto me recuerda algo que Eduardo y yo discutimos brevemente sobre la diferencia entre hacer que algo funcione y hacer que algo funcione bien. Puedes generar una aplicación con vibe coding que técnicamente cumple su propósito, pero la experiencia de usuario puede ser terrible. Puedes pedirle a una IA que escriba un email profesional y lo hará, pero puede sonar frío, genérico, desconectado del contexto emocional de la relación entre remitente y destinatario.

La frontera del progreso no está solo en hacer IAs más capaces cognitivamente. Está en hacerlas más capaces socialmente, más sensibles al contexto humano complejo que rodea cada interacción. Y eso, curiosamente, es mucho más difícil que resolver integrales o escribir código.

Volviendo al puente: qué significa esto para Human-IA

Todo esto me devuelve a aquella conversación del lunes en Deep Business y a la pregunta que quedó flotando: ¿tiene sentido estudiar programación en este momento? Mi respuesta ahora, después de procesar el Town Hall de Altman y de reflexionar durante días, es más matizada que la que di en el programa.

Sí, tiene sentido estudiar programación. Pero no para aprender a escribir bucles for o memorizar sintaxis. Tiene sentido para desarrollar pensamiento computacional, para entender cómo se descomponen problemas complejos en pasos manejables, para aprender a pensar en sistemas, en arquitecturas, en flujos de información y control. Porque esas habilidades son transferibles a todo. Desde gestionar un equipo hasta diseñar procesos de negocio hasta entender cómo funciona realmente el mundo digital en el que vivimos.

Pero tiene aún más sentido cultivar alta agencia. Aprender a definir tus propios problemas en lugar de solo resolver los que otros te plantean. Desarrollar la capacidad de persistir cuando algo no funciona a la primera, a la quinta, a la vigésima vez. Construir criterio para saber cuándo una solución es lo suficientemente buena y cuándo necesitas seguir iterando. Entender las implicaciones éticas y sociales de lo que construyes, no solo las técnicas.

Desde Human-IA nuestra misión siempre ha sido despertar el espíritu crítico, cultivar la capacidad de las personas para usar la tecnología con propósito consciente en lugar de consumirla pasivamente. La deflación de la inteligencia hace esa misión más urgente que nunca. Porque cuando cualquiera puede crear, la responsabilidad de crear con criterio se distribuye. Ya no puedes decir «yo solo uso la herramienta, los expertos decidirán qué es apropiado». Tú eres el experto de tu propio dominio. Tú eres quien debe decidir qué problemas merecen solución y cuáles no.

La democratización de la IA no es una amenaza. Es una oportunidad histórica. Pero solo para quienes estén dispuestos a asumir la responsabilidad que viene con el poder. Como exploramos en nuestra reflexión sobre la Paradoja del Maestro, el crecimiento real viene de enseñar, de compartir, de elevar a otros. Y eso es exactamente lo que necesitamos en este momento: personas que no solo dominen las herramientas, sino que entiendan cómo usarlas para expandir el potencial de todos.

El día después de la deflación

Hace unas semanas escribí sobre El día después de la AGI, reflexionando sobre lo que Hassabis y Amodei nos están diciendo con franqueza brutal: la AGI no es un evento futuro, es un proceso que ya comenzó. La deflación de la inteligencia de la que habla Altman es parte de ese proceso.

Cada vez que un modelo nuevo puede hacer en segundos lo que antes requería horas de trabajo humano especializado, estamos viviendo un pequeño apocalipsis personal de alguien cuya ventaja competitiva acaba de evaporarse. Pero también estamos viviendo el nacimiento de cien oportunidades nuevas para quien sepa verlas. Como vimos con el ajedrez, la máquina que supuestamente mataría el juego terminó elevándolo a alturas nunca vistas.

La lección que he aprendido de todas estas conversaciones —la del lunes en Deep Business, la del Town Hall de Altman, los cientos de intercambios que tenemos cada semana en la fundación— es que la herramienta es solo la herramienta. Lo que importa es quién la usa, para qué la usa, con qué nivel de conciencia sobre las implicaciones de su uso.

Cuando la inteligencia es cara, solo unos pocos privilegiados pueden acceder a ella. Cuando se vuelve barata, todos podemos. Pero ese «todos podemos» viene con una condición: todos debemos. Todos debemos aprender a usarla bien. Todos debemos desarrollar el criterio para distinguir entre crear valor y crear ruido. Todos debemos cultivar la responsabilidad de no solo preguntarnos «¿puedo hacer esto?» sino «¿debería hacer esto?»

Ese es el verdadero desafío de la deflación de la inteligencia. No es técnico. Es humano. Y es ahí donde Human-IA seguirá enfocándose: en ayudar a las personas a navegar este momento extraordinario con los ojos abiertos, con el espíritu crítico despierto, con el propósito claro y con la certeza de que la tecnología no nos define. Nosotros definimos qué hacemos con la tecnología.

Y en esa definición, en esa elección consciente momento a momento, se jugará el futuro que habitaremos.


Si quieres escuchar la conversación completa que inspiró este artículo, puedes encontrar el episodio de Deep Business del 26 de enero aquí. Y si estos temas te resuenan, únete a nuestra comunidad mientras construimos juntos el futuro de la inteligencia artificial con propósito y conciencia.


Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *