La creciente adopción de inteligencia artificial (IA) en operaciones de TI y ciberseguridad está transformando los modelos tradicionales de gestión de identidades. Según el informe global publicado por Delinea, titulado AI in Identity Security Demands a New Playbook, esta evolución tecnológica exige una revisión profunda de las estrategias de seguridad actuales, especialmente en lo que respecta a la protección de identidades humanas y de máquinas.
El estudio, basado en una encuesta a más de 1.700 responsables de TI en todo el mundo, revela una paradoja significativa: aunque el 93 % de las organizaciones confían en que sus sistemas de seguridad de identidades están preparados para enfrentar amenazas emergentes como la manipulación mediante IA, solo el 44 % afirma que su arquitectura de seguridad está realmente equipada para soportar una IA segura.
Uno de los hallazgos más relevantes es el uso extendido de IA en operaciones de TI. El 94 % de las empresas encuestadas ya utiliza o está probando herramientas de IA, y más de la mitad emplea tecnologías generativas o agentes autónomos (agentic AI) para mejorar sus procesos. En particular, el 40 % aplica IA agentica directamente en operaciones de seguridad. Este tipo de IA, capaz de tomar decisiones autónomas para cumplir objetivos, plantea nuevos riesgos si no se gestiona adecuadamente.
Delinea advierte que la IA agentica requiere un enfoque de seguridad igualmente dinámico, denominado “seguridad agentica”. Esto implica controles de acceso más granulares y adaptativos que los modelos tradicionales basados en roles. La falta de visibilidad sobre las identidades de máquina —solo el 61 % de las organizaciones tiene visibilidad completa— y la gobernanza limitada sobre entidades de IA —apenas el 48 % cuenta con políticas específicas— agravan el riesgo de decisiones autónomas no supervisadas o de compromisos por actores maliciosos.
Otro fenómeno destacado es el de la “IA en la sombra” (shadow AI), es decir, el uso no autorizado de herramientas de IA por parte del personal. Más de la mitad de las organizaciones enfrenta este tipo de incidentes al menos una vez al mes, y un tercio los experimenta varias veces mensualmente. Esta práctica, aunque a veces motivada por la búsqueda de eficiencia, puede introducir vulnerabilidades significativas si no se controla adecuadamente.
En cuanto a la gobernanza, el informe señala que solo el 57 % de las organizaciones tiene políticas de uso aceptable para herramientas de IA, y apenas el 55 % ha implementado controles de acceso específicos para agentes de IA. Esta brecha normativa deja a muchas empresas expuestas a riesgos como el robo de credenciales, la generación de contenido falso (deepfakes) y la pérdida de visibilidad sobre los flujos de acceso.
Art Gilliland, CEO de Delinea, subraya que “cada organización debe construir un modelo de gobernanza integral para la IA, que garantice su uso seguro y conforme a los objetivos previstos”. En este sentido, el informe no solo identifica los desafíos actuales, sino que también propone una reconfiguración del enfoque de seguridad de identidades, orientado a sistemas adaptativos y conscientes del riesgo, capaces de verificar y proteger cada acción, ya sea humana o automatizada.
Este llamado a una nueva estrategia refleja la necesidad de que las empresas no solo adopten tecnologías emergentes, sino que también desarrollen marcos sólidos para gestionarlas. En un entorno donde la IA se convierte en un actor operativo más, la seguridad de identidad ya no puede depender de modelos estáticos. La evolución hacia una seguridad agentica parece ser, más que una opción, una necesidad estructural.
Fuente: informe de Delinea | Editado por CDOL