Programa emitido en Capital Radio.
En la última edición de Deep Business en Capital Radio, Ángel García Crespo y María José de Vega analizan el vertiginoso cambio que atraviesa el sector de la inteligencia artificial. Desde el sorprendente ascenso de Claude frente a GPT hasta la carrera de las grandes tecnológicas por fabricar sus propios chips, el panorama actual redefine las estrategias de negocio y la gestión del talento. En este artículo, desglosamos las claves de una transformación que ya no se mide en años, sino en trimestres, y exploramos cómo la integración de agentes autónomos y modelos locales está marcando el camino hacia una productividad sin precedentes.
La batalla de los LLM: El fenómeno Claude
Uno de los puntos más destacados del análisis es el cambio de tendencia entre los usuarios avanzados, que están migrando de GPT a Claude. La evolución de Anthropic está logrando captar a quienes buscan respuestas más directas y eficientes, especialmente en entornos profesionales.
- Rendimiento superior: Claude está ganando la partida en tareas críticas como la programación y la gestión de datos complejos.
- Saturación de GPT: Se percibe un cierto cansancio con el modelo de OpenAI debido a respuestas que algunos usuarios califican de «clickbait» o menos precisas.
- Consumo de créditos: La alta demanda de Claude ha llevado incluso a usuarios de pago a agotar sus límites de uso, lo que demuestra su alta adopción.
Independencia de NVIDIA: La carrera por el hardware
Las grandes tecnológicas como OpenAI, Meta y xAI (de Elon Musk) están virando su estrategia: ya no solo quieren desarrollar software, sino que necesitan controlar el hardware para no depender exclusivamente de terceros.
- Chips propios: El objetivo es eliminar la dependencia de NVIDIA, el actual gigante de las GPU, para garantizar la capacidad de ejecución de sus modelos.
- La apuesta de Elon Musk: Con xAI y Grok, Musk busca acelerar la computación local y aprovechar los datos de X (Twitter) para competir en la primera línea.
- Soberanía técnica: Fabricar hardware propio permite a estas empresas optimizar sus LLM y reducir costes operativos a largo plazo.
Impacto real en el empleo y las Big Tech
El anuncio de despidos en empresas como Amazon, Meta u Oracle bajo el paraguas de la eficiencia por IA genera un debate intenso: ¿es una sustitución real o una justificación para los inversores?
- Presión de los accionistas: Tras inversiones multimillonarias en IA, las empresas necesitan demostrar rentabilidad inmediata, a menudo mediante la reducción de costes de personal.
- El riesgo para los perfiles Junior: Las tareas que antes realizaban los recién llegados a la consultoría ahora pueden ejecutarse con un LLM de 20 euros al mes.
- Reinvención necesaria: La IA no solo automatiza, sino que obliga a «repensar el negocio desde cero» y a contratar perfiles capaces de supervisar estas herramientas.
Nuevos modelos de negocio y el futuro de la administración
El futuro de la IA apunta a un modelo de «comodidad» similar al suministro eléctrico o al streaming, donde se pagará según el nivel de uso e intensidad.
- Tarifas mixtas: Se prevén modelos de suscripción básica con pagos adicionales por consumo de tokens para los «heavy users».
- Agentes autónomos: La llegada de herramientas que controlan el ordenador del usuario (como el «dispatch» de Claude) promete eliminar intermediarios en sectores como el turismo o la banca.
- La situación en España: Se analiza el proyecto ALIA, el modelo de lenguaje español, señalando la necesidad de ir más allá del entrenamiento básico y apostar por una educación real del modelo.
- Medir la productividad: El gran reto de las empresas españolas sigue siendo establecer métricas claras para saber si la IA realmente está mejorando sus resultados.
#InteligenciaArtificial #Claude #TransformaciónDigital #EmpleoIA #TecnologíaEspaña
\n


Deja una respuesta