Programa emitido en Capital Radio.

En el programa del 16 de febrero de 2026 de Deep Business en Capital Radio, exploramos el cambio de paradigma que supone la llegada de asistentes como OpenClaw, herramientas que ya no solo responden a nuestras dudas, sino que ejecutan tareas complejas directamente en nuestros ordenadores. Sin embargo, este avance abre un debate crucial: ¿está la Inteligencia Artificial fortaleciendo nuestros sistemas de defensa o está armando a los ciberdelincuentes con herramientas más letales que nunca? Expertos en ciberinteligencia analizan los riesgos y las oportunidades de este nuevo escenario digital.

OpenClaw: La IA que ya no solo habla, sino que actúa

El programa comenzó analizando OpenClaw, un asistente de código abierto que marca el inicio de una nueva generación de herramientas de IA capaces de manejar archivos y ejecutar procesos locales siguiendo instrucciones en lenguaje natural.

  • Capacidad de ejecución: A diferencia de los LLM tradicionales, estos asistentes pueden realizar tareas tediosas, como cambiar el formato de decenas de vídeos simultáneamente o reorganizar documentos complejos.
  • Modelo de pago por uso: Estas herramientas funcionan mediante el consumo de tokens. Es fundamental vigilar el gasto, ya que un error en la instrucción o un bucle de procesamiento puede disparar la factura rápidamente.
  • Riesgos iniciales: Al ser tecnologías emergentes y de código abierto, su seguridad actual es mejorable. Muchos se gestionan a través de canales como Telegram, lo que puede abrir puertas traseras si no se configuran correctamente.

IA contra IA: El nuevo campo de batalla de la ciberseguridad

Enrique Serrano y Carlos Marcos, expertos en ciberseguridad, coinciden en que nos encontramos en una era de «IA contra IA». Los atacantes ya no son los únicos que innovan; la defensa también se automatiza.

  • Detección proactiva: La IA permite analizar volúmenes de datos ingentes para identificar comportamientos anómalos (UBA) que un humano tardaría meses en detectar, como un empleado robando información antes de dimitir.
  • El fin del phishing mal traducido: Gracias a la IA generativa, los correos fraudulentos ahora presentan un español perfecto y están altamente personalizados, lo que aumenta drásticamente su tasa de éxito.
  • Deepfakes y desinformación: La clonación de voz en apenas segundos permite realizar estafas telefónicas (como el falso secuestro o la petición urgente de dinero) con una veracidad aterradora.

Amenazas emergentes: El peligro del Prompt Injection

Uno de los mayores riesgos actuales es el «Prompt Injection», una técnica donde el atacante esconde instrucciones maliciosas dentro de archivos o imágenes que el usuario sube a una IA.

  • Instrucciones ocultas: Un documento aparentemente inofensivo puede contener texto invisible para el ojo humano pero legible para la máquina, ordenándole enviar datos privados a un tercero.
  • Vulnerabilidad en navegadores: Los nuevos navegadores con IA integrada pueden ser engañados para ejecutar comandos peligrosos, como formatear el disco duro, simplemente al leer una página web maliciosa.

Claves para protegerse en el futuro inmediato

Para navegar con seguridad en este entorno, los expertos recomiendan una serie de medidas de higiene digital tanto para usuarios particulares como para empresas.

  • Modelos locales: La tendencia para las empresas es volver del «cloud» al entorno local. Ejecutar la IA en servidores propios garantiza que la información confidencial no salga nunca de la organización.
  • Supervisión humana obligatoria: Nunca se debe dejar la ejecución final en manos de una IA sin un «humano al mando» que verifique la coherencia de las acciones, especialmente en tareas críticas.
  • Límites y doble factor: Es vital establecer límites de facturación en las API de IA y activar siempre el doble factor de autenticación para evitar que el robo de una clave permita a un atacante vaciar nuestras cuentas mediante el consumo masivo de tokens.
  • Palabras clave familiares: Ante la amenaza de los deepfakes de voz, establecer una palabra de seguridad secreta con nuestros seres queridos puede ser la única forma de confirmar su identidad en una llamada de emergencia.

#InteligenciaArtificial #Ciberseguridad #OpenCloud #Ciberinteligencia #Tecnología


Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *