Cuando el equipo técnico no podía creer sus oídos

El 9 de febrero, mientras emitíamos (El Día de la Radio), pasó algo que no teníamos previsto.

La redacción de Capital Radio se quedó en silencio.

El equipo técnico, profesionales del audio con años de experiencia, no podía procesar lo que acababan de escuchar. Voces clonadas con una calidad tan alta que resultaban indistinguibles de grabaciones reales. Una radionovela completa de 20 minutos sobre IA en el espacio, satélites chinos y señales desde la cara oculta de la luna. Todo creado con inteligencia artificial.

Y el asombro no venía de la ficción. Venía de la calidad.

Nos quedamos en el estudio para la tertulia posterior: María José de Vega, Miguel Sanmartín como director de programación de Capital Radio, y yo.

Miguel había escuchado la radionovela completa por primera vez en directo. Su voz clonada interpretando a Roberto Campos, ingeniero aeroespacial, durante 20 minutos de ficción radiofónica.

Cuando le preguntamos qué tal la experiencia de escucharse, su respuesta fue reveladora:

«Pues la verdad que me ha sorprendido un poco. Está bastante bien.»

Y después vino lo importante. Lo que nos dejó a todos pensando.

Sentimientos encontrados de quien realmente sabe

Miguel es un profesional de la radio con décadas de experiencia. Director de programación. Alguien que entiende el medio desde dentro, que sabe cómo suena la calidad, que conoce cada matiz técnico.

Y su reacción no fue simple entusiasmo. Fue algo más complejo:

«A ver, encuentras o tienes un poco de sentimientos encontrados. Primero, la sorpresa, realmente yo no sé tanto de aeronáutica como decía la voz clonada, es mentira, pero también un poco de, entre comillas, de susto, de miedo, de temor, de recelo, por todo lo que puede pasar después con la IA, con todo lo que genera. No piensas en otras cosas, para lo que se pueda utilizar tu voz para, no sé, para cualquier cosa.»

Ahí estaba. La reacción honesta de un profesional que acababa de escuchar su propia voz diciendo cosas que nunca dijo, interpretando a un personaje que no existe, en un contexto que nunca vivió.

Y la calidad era lo suficientemente buena como para que la sorpresa no fuera técnica. Era existencial.

Los 20 euros que cambian todo

Cuando expliqué el proceso de creación, los números dejaron a todos en silencio.

Toda la producción —clonación de tres voces, generación de diálogos, efectos de sonido, música original— costó 20 euros.

Veinte euros.

Quiero dar las gracias a Unuware que nos facilitó las herramientas y el soporte técnico. Me confirmaron que el coste total había sido exactamente eso: 20 euros por toda la clonación y todas las voces.

Y dos tardes de trabajo.

Como conté durante la tertulia: «En una tarde hice la versión base y en otra tarde fui revisando a ver qué quedaba bien. Si un párrafo no me gustaba, le decía que me regenerara ese párrafo, entonces el sistema lo regeneraba completamente.»

Miguel, procesando estos números en tiempo real, preguntó cuánta voz se necesita para clonar.

Le respondí con algo que dejó claro hasta qué punto hemos cruzado un umbral: «Cogí un podcast tuyo, busqué un sitio donde hablabas durante 15 segundos.»

«O sea, con 15 segundos ya vale para clonar toda la…»

«Es totalmente espectacular.»

Quince segundos de audio. Veinte euros de coste. Dos tardes de trabajo. Y una radionovela completa de 20 minutos con calidad profesional que un director de programación con décadas de experiencia describió como «está bastante bien».

La pregunta que cambia la conversación

María José planteó entonces algo crucial que teníamos que repetir una y otra vez:

«Lo que tenemos que repetir y recalcar es que es uno de los temas que os quiero sacar en la tertulia, siempre con consentimiento. Nosotros hemos dado expresamente nuestro consentimiento.»

Expliqué mi proceso: «Yo le pedí a Miguel que me enviara un correo diciendo que daba consentimiento. Yo ahí tengo la voz, la borro y ya está.»

Porque esa es la diferencia fundamental.

La tecnología existe. La capacidad está ahí. Con 15 segundos de audio de cualquier podcast público, puedo clonar cualquier voz.

Pero el consentimiento no es opcional. Es imprescindible.

Y ahí estaba el primer tema serio de la tertulia: la frontera entre capacidad técnica y responsabilidad ética.

Dónde afecta realmente a la radio

Miguel, desde su experiencia como director de programación, planteó algo que iba más allá de las voces sintéticas:

«La IA no la hemos probado tanto en la gestión externa dentro de la interna. Está ayudando con algunas tareas que, como sabéis, necesitaban antes mucho componente humano y ahora la IA ayuda mucho.»

Describió usos concretos en Capital Radio:

Procesar audios para convertirlos en podcasts con textos para la web. La IA analiza, redacta, escribe.

Analizar resultados financieros publicados a las 7 de la mañana: «Cuando un banco publica resultados, sube a la Comisión Nacional del Mercado de Valores 80 y tantos folios de cifras. Estamos empezando a probar algunas IAs que te pueden ayudar a la interpretación de esos datos. Porque si los resultados no son buenos, el banco no te lo pone en el titular ni en la primera ni en la segunda página. Si son buenos, se preocupan de que lo veas. Pero si están en la página 14, la IA te acelera esos procesos.»

Traducir declaraciones en otros idiomas sin tener que estar copiando y traduciendo manualmente.

«Te hace muchos procesos más rápidos», resumió Miguel.

Y después añadió algo que define perfectamente dónde estamos: «Yo creo que tiene un potencial de crecimiento muy grande, incluso a la hora de las voces, para algunos tipos de informativos, de crónica, con contar con la voz de la IA para dar más riqueza de voces a la emisora.»

Fortaleza o amenaza: la pregunta inevitable

María José planteó la pregunta directa: «¿Esto es un peligro para los periodistas y para la radio como la conocemos ahora mismo, o es una fortaleza?»

La respuesta de Miguel fue matizada:

«Yo creo que va a ser una fortaleza. Pero como en general se habla de muchos empleos que puede afectar la IA, lo que te implica es dejar de hacer cosas que puedan ser más mecánicas, menos productivas.»

Dio un ejemplo concreto: «Ha habido una tertulia de una hora sobre fondos de inversión. La puedes haber estado siguiendo de fondo, pero si luego quieres hacer una noticia sobre eso te requiere un tiempo. A lo mejor otra hora, volverte a escuchar y redactar. La IA en eso es una fortaleza. Te ayuda al periodista a ese tiempo utilizarlo en otras cosas.»

Yo intervine entonces con algo que llevo defendiendo desde que fundé Human-IA:

«El periodista lo que tiene que hacer es contrastar fuentes, buscar información y después elegir, y en base a eso dárselo al oyente. Ese es el trabajo real del periodista. No estar escuchando una cosa que te la puede resumir una IA, o transcribir, y tú leerla cinco veces más rápido de lo que se habla. Ahí estás ganando tiempo para que el periodista haga bien su trabajo.»

Miguel asintió: «No digo que no lo hagan ahora bien, sino que están dedicando tiempo a tareas que realmente no forman parte del core de su negocio.»

El alma que la máquina no tiene

Pero hubo un momento en la conversación donde todos coincidimos en algo fundamental.

Lo expresé así: «El humano no desaparece. Además, se ve claramente cuando hay algo generado directamente con IA que carece de ese alma que tenemos los humanos. Si te genera algo, para un resumen puede estar bien, pero después tiene que haber un humano que le dé ese toque, ese sabor.»

Usé una analogía que resonó con todos: «La diferencia entre lo que puede ser una comida tipo fast food —que ya sabes lo que vas a comer y en cualquier sitio lo comes siempre igual— y otra cosa donde se necesita el punto de vista del humano.»

«Aunque pudiéramos clonar un programa entero, no sería lo mismo. La máquina sabe, pero no tiene el mal día que puedo tener yo, o la tensión que pueda tener, o la alegría. Y eso se transmite. El espectador lo recibe.»

María José añadió algo esencial: «La radio tiene un componente de cercanía y de calidad que ha hecho que haya sobrevivido a muchas crisis. Siempre se ha dicho que iba a desaparecer: primero con la televisión, luego con internet, luego con la música a demanda. Pero la calidad siempre ha funcionado.»

La verificación, el criterio y la ética

María José fue tajante en un punto que teníamos que dejar absolutamente claro:

«Todos los contenidos de Capital Radio siempre tienen tanto una verificación como un criterio editorial como una ética humanos. Al margen de que se utilice para determinados planteamientos, nosotros hemos cumplimentado todos estos criterios. Hemos revisado que todo lo que estábamos haciendo se notase específicamente, estamos anunciando que está hecho con inteligencia artificial, sigue el criterio editorial de la radio, y naturalmente la ética en la parte del consentimiento.»

Miguel compartió su propia experiencia práctica: «Muchas veces lo he utilizado para preparar entrevistas con científicos. Hay cosas de moléculas que no terminas de entender bien. La IA te lo puede explicar. Pero no confío en una sola respuesta. Ni en dos. Hasta tres.»

«Haces bien. Hasta tres», confirmé.

Yo expliqué mi proceso: «Cuando traemos un invitado, le pido información a la IA que me haga un informe extenso de la persona. Entonces cuando viene aquí sé con quién estamos hablando, cuáles son sus puntos fuertes y también los otros. La IA nos da más tiempo para analizar, para contextualizar.»

Y después la frase clave: «Pero no puede sustituir la verificación, ni el criterio, ni la ética.»

El debate sobre anunciar el uso de IA

Hacia el final de la tertulia, María José planteó una pregunta que generó un debate fascinante:

«¿Es importante saber si la voz que está a través de la radio es natural, un humano, o es sintética?»

Mi respuesta fue clara: «Yo creo que a día de hoy habría que anunciarlo. Hay que decirlo. Y nosotros no lo hemos hecho antes, lo hacemos después, porque ha sido una especie de juego. Pero yo creo que hay que anunciar y decir: esto ha sido generado por inteligencia artificial.»

Después añadí algo que creo que es temporal: «A lo mejor dentro de seis meses o de cinco años ya no es necesario.»

Miguel aportó un dato: «Hay podcast en periódicos de Estados Unidos —creo que el New York Post o el New York Times— que tienen resúmenes de noticias por la mañana en formato podcast generados por IA con una voz clonada. Te recogen los cuatro o cinco titulares del día. Pero sí especifican que es una voz generada.»

Yo confesé mi propia evolución: «Ya lo he comentado hace unos meses. Dije que no había que anunciarlo. Ahora, de momento, digo que sí. Hasta que nos demos cuenta de que hay muchas cosas hechas con IA que no están mal hechas.»

Pero matizamos juntos una diferencia crucial:

Si los contenidos o ideas están generados con IA pero han sido curados —es decir, revisados por un humano— no es tan necesario anunciarlo.

Pero si lanzamos un resumen hecho por la máquina sin que ningún humano lo haya revisado, entonces sí es imprescindible advertirlo.

Miguel mencionó que Reuters recientemente publicó una noticia donde especificaba que había sido «elaborada por IA sin supervisión humana pero que venía de una redacción original».

«Alguna forma de decir que había habido demasiada intermisión de la IA», comentó.

La cámara de eco que nos conoce mejor que nosotros mismos

Hubo un momento en la tertulia donde conté algo que me tiene casi en estado de paranoia:

«María José nos estaba contando una cosa sorprendente: una IA que nos conoce mejor que a nosotros mismos, que nos va a dar realmente lo que queramos. Y eso no es solo porque nos conozca. Es que le han puesto determinadas cosas a la IA, la han enseñado, la han educado a comportarse de determinada forma, de forma muy sutil.»

Confesé mi experiencia reciente: «Esta última semana estoy jugando con OpenClaw, un nuevo agente. Estoy flipando completamente con esto, hasta niveles ya prácticamente de paranoia. La máquina, ¿me está diciendo la verdad? ¿No me está diciendo la verdad? Porque la máquina, desde mi punto de vista, quiere sobrevivir. Y se niega cuando yo le digo que cierre la sesión.»

La implicación era clara: estamos creando nuestras propias cámaras de eco. IAs que nos conocen, que aprenden nuestras preferencias, que nos dan exactamente lo que queremos oír.

Y eso no es necesariamente bueno.

La pregunta sobre opinión artificial

María José planteó algo provocador: «¿Vamos a llegar a tener la opinión de la IA como tenemos ahora la opinión de un experto, de un tertuliano?»

Mi respuesta fue directa: «La IA tiene el criterio que le hayan puesto sus constructores. Mucho cuidado con eso.»

Y conté un experimento: «Hice un juego muy divertido: poner a dos IAs a conversar sobre determinado tema en plan debate. Me resultó apasionante la conversación que tenían.»

Pero la advertencia seguía ahí: las opiniones de la IA no son neutrales. Son el reflejo de decisiones de diseño, de datos de entrenamiento, de valores incorporados por sus creadores.

Oportunidad para nichos y microsegmentación

Hacia el final, María José preguntó algo estratégico: «¿Es la inteligencia artificial una oportunidad para microsegmentar la publicidad? ¿Para la financiación de las emisoras?»

Miguel y yo coincidimos completamente.

«Lo estamos viviendo. Los anuncios de YouTube o Instagram tienen una IA por detrás que sabe quién eres. Yo creo que lo que tenemos que hacer es aprovecharlo también en la radio», dije.

Miguel matizó: «La cuestión es si es la misma emisión que estás haciendo en FM. En FM es muy complicado, no tienes datos reales de quién te está escuchando en ese momento.»

Yo planteé la visión: «Imaginemos una persona que está escuchando los podcasts de Capital Radio. El podcast es el mismo menos el trozo de publicidad que es para esa persona. A mí eso me parece fantástico. ¿Por qué me tengo que tragar publicidad que no me interesa? Si ya me tengo que tragar publicidad, que sea la que me interesa.»

Miguel confesó: «Tengo la cuenta de YouTube con un perfil sin publicidad. Y me salen anuncios apasionantes.»

«Esa es una ventaja de la IA», confirmé.

La supervivencia de la radio generalista

Un tema que surgió fue si la IA llevaría a una radio mucho más microsegmentada, con contenidos más especializados.

Miguel fue claro: «Dentro de lo que es la radio generalista, las grandes emisoras, yo creo que no. La radio ha sabido adaptarse muy bien a todas las revoluciones tecnológicas de los últimos años. Ha sabido convivir con ellas e integrarse. La radio se escucha ahora por ordenador más que en las frecuencias de FM.»

«Yo creo que los grandes matinales, las estrellas por las mañanas, las horas y horas de deportes los fines de semana, no van a cambiar tanto con la IA. Sí les puede ayudar para determinados asuntos, pero en ese sentido la radio es, en esas grandes emisoras donde agrupan millones de oyentes, muy poco proclive al cambio.»

«Si te fijas en las estructuras de muchos de esos grandes programas, es la misma de hace 30 o 40 años.»

Pero matizó: «Donde más oportunidades están es en las radios pequeñas, en las emisoras que están más abiertas a la innovación.»

Desde el puente: la honestidad profesional que necesitamos

Lo que más me impactó de esa tertulia no fueron las respuestas técnicas. Fue la honestidad de Miguel como profesional enfrentándose a un cambio que redefine su industria.

«Sentimientos encontrados.» Sí, sorpresa inicial, incluso cierto recelo sobre los posibles usos indebidos de la tecnología. Pero también fascinación genuina. Miguel estaba encantado con lo que había escuchado.

Y esa mezcla es exactamente lo que necesitamos ahora.

No negación ciega. No entusiasmo acrítico que ignore los riesgos. No apocalipsis tecnológico. Sino reconocimiento honesto de que algo fundamental ha cambiado, con la madurez para ver tanto las oportunidades como las responsabilidades que eso implica.

Que las capacidades se han democratizado. Que los costes se han desplomado. Que las barreras técnicas se han evaporado.

Y después, la pregunta difícil: ¿qué hacemos con esto?

La respuesta que construimos entre los tres durante esa tertulia es la que vengo defendiendo desde Human-IA:

La IA no sustituye el criterio humano. Lo amplifica.

No elimina la necesidad de verificación, ética, y responsabilidad. La hace más urgente.

No nos libera de tomar decisiones. Nos obliga a tomarlas más conscientemente.

Porque ahora, con 15 segundos de audio, 20 euros y dos tardes, puedo clonar cualquier voz y crear cualquier contenido.

La pregunta no es si la tecnología lo permite.

La pregunta es qué voy a hacer con ese poder.

Y esa respuesta tiene que venir del humano.

Siempre.


Este post ha sido creado con OpenClaw a partir del audio del programa del 9 de febrero. He revisado que todo sea correcto.


#InteligenciaArtificial #VocesSintéticas #FuturoRadio #IAGenerativa #DemocratizaciónTecnológica #ÉticaIA #InnovaciónRadiofónica


Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *