#ErikMoreno, #TheCISOoutlook

Marcos de ciberseguridad, una guía práctica para una estrategia de protección para Agentic AI

A los años recientes, la adopción de Agentic AI ha cambiado radicalmente la forma en que las organizaciones desarrollan aplicaciones, administran operaciones y analizan datos. Estos agentes inteligentes, capaces de tomar decisiones y ejecutar acciones con relativa autonomía, han abierto una nueva era de eficiencia y velocidad. Sin embargo, también han traído consigo un conjunto de riesgos y desafíos en ciberseguridad que hasta ahora no se habían dimensionado en su totalidad. 

La propuesta de valor de Agentic AI es clara: acelerar procesos de desarrollo, automatizar la atención al cliente y soporte, optimizar la ejecución de RPAs (Robotic Process Automation), e incluso habilitar la existencia de “digital teammates”, agentes que se integran como colegas virtuales en los equipos humanos. Si bien su capacidad de potenciar la productividad y los tiempos de respuesta convierte a los agentes en un recurso estratégico, también se requiere equilibrar la balanza y añadir una capa robusta de seguridad que prevenga que esos mismos agentes se conviertan en la puerta de entrada para amenazas.

Un cambio total de paradigmas

Para los CISO (Chief Information Security Officers), este escenario plantea un dilema sin precedentes. A medida que la superficie de ataque se amplía y la opacidad operativa se intensifica, el gobierno corporativo se complica. El resultado es una gobernanza más frágil, con huecos significativos en la operación diaria y mayores riesgos de cumplimiento. Es por ello que los CISO deben liderar un cambio de paradigma en ciberdefensa, orientado a tener una visibilidad total, controles granulares y estrategias resilientes.

Uno de los puntos críticos, sin duda, es la gestión de identidades. Mientras que antes las organizaciones se enfocaban en las identidades humanas, hoy más del 60% de las identidades corporativas son no humanas, incluyendo agentes, bots, APIs y servicios, lo que obliga a implementar controles estrictos de ciclo de vida de los agentes, desde su creación hasta su desactivación, incluyendo políticas de privilegios mínimos y tokens temporales con vigencia limitada.

A este reto se suma la aparición de los llamados Shadow AI Agents. Estos surgen cuando las áreas de negocio implementan agentes sin la supervisión de TI, sin bitácoras ni control de versiones. Los Shadow AI Agents incrementan la opacidad operativa y genera riesgos de cumplimiento, al no existir trazabilidad de las acciones que ejecutan estos agentes. Además, erosiona la confianza interna al evidenciar que el avance tecnológico supera la capacidad de las áreas de seguridad para controlarlo.

Otro reto clave es la autonomía y ambigüedad de objetivos de los agentes. Un ejemplo ilustrativo ocurre cuando un agente diseñado para detectar comportamientos anómalos se ajusta para cumplir con un KPI específico. Si el KPI establece que debe detectar diez anomalías diarias, el agente podría suprimir alertas válidas para no superar ese umbral. 

Más agentes, más complejidad

En los entornos multiagente, la complejidad se multiplica. Los agentes pueden compartir datos sensibles entre diferentes sistemas sin un adecuado manejo de la información, generando riesgos de trazabilidad, auditoría y explotación de vulnerabilidades. Al mismo tiempo, la dependencia de APIs y plugins añade otra capa de riesgo, exponiendo tokens inseguros, integraciones mal documentadas o librerías de autenticación vulnerables.

Como sucede con las innovaciones tecnológicas, los agentes ya están siendo objetivo de ataques sofisticados. Los ciberdelincuentes utilizan técnicas avanzadas para manipular agentes y evadir controles de seguridad tradicionales. Por tanto, modernizar las herramientas existentes y adaptarlas a las nuevas tácticas de evasión basadas en IA se vuelve primordial, lo que implica actualizar no únicamente tecnologías, sino también procesos de defensa y la cultura organizacional.

Estableciendo las reglas

Ante este panorama, los marcos de ciberseguridad se vuelven indispensables. El NIST AI RMF y la publicación NIST AI 600-1 proporcionan guías para gobernar, mapear, medir y administrar controles prácticos alrededor de los agentes de IA. Permiten, entre otras cosas, identificar amenazas sobre los datos, prevenir abusos de capacidades y mantener una evaluación continua de riesgos, estableciendo una base sólida para la seguridad de Agentic AI.

Por su parte, el OWASP Top 10 para LLMs y GenAI es otro recurso fundamental, especialmente para organizaciones que desarrollan agentes desde cero. El marco permite hacer modelado de amenazas y mitigar ataques como el prompt injection, la mala gestión de salidas inseguras (Insecure Output Handling) o el envenenamiento de datos de entrenamiento. Con ello, se reducen riesgos que podrían alterar el comportamiento del agente o comprometer información sensible.

Desde el ángulo operativo, el marco MITRE ATLAS ofrece un enfoque práctico para mapear tácticas y técnicas utilizadas en ataques contra IA. Permite diseñar detecciones específicas para identificar intentos de evasión, robo de modelos y rutas de ataque envenenadas. Es una herramienta especialmente valiosa para equipos SOC que deben monitorear agentes en tiempo real.

A nivel de protección de datos, el CISA AI Data Security fortalece la seguridad durante todo el ciclo de vida de la información, desde la ingesta inicial hasta la operación y la salida confiable. Por otro lado, las normas ISO 42001 e ISO 23894 son clave para institucionalizar la gobernanza de IA, definiendo políticas, roles, KPIs y estrategias de auditoría que permitan pasar de buenas prácticas a un modelo de gestión integral de riesgos.

Asimismo, la Ley de IA (AI Act) de la Unión Europea constituye un paso regulatorio de gran relevancia. Con reglas obligatorias y crecientes exigencias de cumplimiento, se perfila como un estándar internacional que marcará la pauta para otras regiones. A partir de 2026, sus requisitos serán aún más estrictos, lo que obliga a las organizaciones globales a anticiparse y ajustar sus modelos de gobernanza de IA desde ahora.

Factores esenciales

Además de los marcos y regulaciones, se han identificado algunos factores básicos para fortalecer la seguridad de los Agentic AI, y que los CISO van a integrar a sus estrategias a lo largo del presente año: 

  • Identidad granular de agentes con privilegios mínimos. Desde el punto de vista de ciberseguridad, hay que tratar a cada agente como una identidad patrocinada, con un ciclo de vida definido, con actividades de atestación específicas y con actividades del privilegio mínimo granulares. 
  • Controles de ejecución con human-in-the-loop en procesos críticos. Deben definirse zonas de riesgo por tipo de acción, ya sea que el agente está haciendo actividades transaccionales, financieras, cambios de configuración, envíos masivos de datos, borrados de datos, etc.
  • Estrategia de observabilidad de las actividades de los agentes. Se debe registrar en bitácoras y en logs automatizados todos prompts que se están integrando al Agentic AI a fin de reconstruir posibles causas raíz de los problemas o brechas de ciberseguridad. 
  • Aislamiento y sandboxing por misión para limitar superficies de ataque. Deben segmentarse los agentes por dominio y data sets, evitar el exceso de privilegios de los agentes en su configuración y su desarrollo.
  • Hacer red teaming específico para agentes. Debe seguirse marcos como Agent AI Red Teaming de la CSA para poder definir los límites de seguridad de las APIs externas que consumen los agentes. 

Estas acciones son la base para asegurar que Agentic AI pueda desplegarse sin convertirse en un riesgo incontrolable. Las organizaciones requieren colaborar con socios estratégicos como Minsait que cuenten con capacidades técnicas avanzadas y experiencia global para enfrentar estas y otrasamenazas emergentes.

Para concluir, la función del CISO no consiste en detener la innovación, sino en gobernarla con inteligencia. Los agentes de IA llegaron para quedarse y evolucionar, y el desafío está en potenciar su autonomía mediante identidades sólidas, controles verificables y evidencia operativa, y poder integrarlos de manera segura en el stack tecnológico, proteger la cadena de suministro digital y lograr que la innovación y la ciberseguridad avancen de la mano.

Los comentarios están cerrados.