La seguridad como condición para la próxima ola de automatización

Los agentes de IA prometen eficiencia, pero requieren límites claros, supervisión y nuevas reglas de confianza

0
4

Una reciente investigación publicada por Cisco sobre la seguridad en agentes de IA revela un escenario en el que el interés empresarial por estas tecnologías avanza con rapidez, pero su adopción real continúa limitada por una brecha de confianza que aún no se cierra. El estudio muestra que la mayoría de las organizaciones ya experimenta con agentes capaces de actuar sobre sistemas y datos, aunque solo una fracción mínima se atreve a llevarlos a producción. La distancia entre la experimentación y el uso operativo no responde a falta de ambición, sino a la dificultad de garantizar que estos sistemas puedan desenvolverse de forma autónoma sin introducir riesgos adicionales en infraestructuras que ya son complejas de por sí.

El análisis parte de una constatación clara: los agentes de IA representan un cambio de paradigma respecto a los modelos generativos tradicionales. No se limitan a producir texto o análisis, sino que ejecutan acciones, interactúan con aplicaciones corporativas y toman decisiones que antes recaían exclusivamente en equipos humanos. Esa capacidad de actuar amplifica tanto el potencial como la superficie de riesgo. Por ello, aunque la mayoría de los responsables de TI y seguridad reconoce el valor estratégico de estos sistemas, también admite que la seguridad es el principal freno para su despliegue. La preocupación se concentra en aspectos como la identidad del agente, la gestión de permisos, la posibilidad de que sea manipulado mediante técnicas de prompt injection y la dificultad de anticipar comportamientos no previstos en modelos que no siempre son deterministas.

El informe subraya que la adopción avanza de forma desigual según la región y el sector. Norteamérica se sitúa a la cabeza, seguida por APJC y EMEA, mientras que industrias como servicios financieros, tecnología, manufactura y salud muestran un mayor grado de experimentación. Sin embargo, incluso en estos sectores, la mayoría de los casos de uso se mantiene en entornos internos y controlados. Los agentes orientados al cliente, pese a su atractivo, generan más cautela debido a la exposición directa a entradas potencialmente maliciosas. La industria ha observado cómo modelos generativos pueden ser inducidos a comportarse de forma inesperada, y cuando un agente tiene capacidad de acción, ese riesgo se vuelve más crítico.

Principales preocupaciones sobre seguridad en la adopción de la IA agentica – Investigación de CISCO

Uno de los puntos centrales del análisis de Cisco es la necesidad de replantear la seguridad desde la identidad. Los enfoques tradicionales, diseñados para usuarios humanos, no resultan suficientes para agentes que operan de manera autónoma. La propuesta se orienta hacia un modelo de Zero Trust basado en acciones, donde la identidad del agente se vincula a permisos estrictamente definidos y a límites operativos verificables. Este enfoque implica proteger al agente frente a manipulaciones externas, pero también proteger a la organización frente a decisiones o acciones no previstas del propio agente. La doble dirección del riesgo se convierte así en un elemento esencial de cualquier arquitectura de seguridad para sistemas autónomos.

El estudio también pone de relieve un problema de gobernanza que muchas organizaciones aún no han resuelto. La responsabilidad sobre la seguridad de los agentes se reparte entre CISO, CIO, equipos de TI y comités de IA, y en algunos casos ni siquiera existe una figura claramente designada. Esta fragmentación puede ser manejable en fases piloto, pero se vuelve problemática cuando los agentes empiezan a interactuar con sistemas críticos o a ejecutar tareas que afectan a operaciones reales. La falta de una autoridad clara dificulta la alineación entre políticas, controles y supervisión, y aumenta el riesgo de inconsistencias.

A pesar de estas barreras, la tendencia apunta hacia una adopción creciente. La industria coincide en que los agentes de IA representan una evolución natural de la automatización y que su valor será cada vez más evidente a medida que se consoliden prácticas de seguridad más maduras. La clave no está en frenar la innovación, sino en estructurarla mediante controles que permitan avanzar sin comprometer la integridad de los sistemas. La transición hacia un uso más amplio dependerá de la capacidad de las organizaciones para definir identidades específicas para agentes, establecer límites de comportamiento, monitorizar acciones y detectar desviaciones en tiempo real. A medida que estos elementos se integren en las arquitecturas corporativas, la brecha entre experimentación y producción podría reducirse, abriendo paso a una adopción más segura y sostenida de agentes autónomos.

Fuente: Entrada del Blog de Cisco | Editado por CDOL

Custom Text
Artículo anterior34% de los latinoamericanos no sabe identificar sitios web falsos
Artículo siguienteABV anuncia el cese del intercambio de cheques a través de la Cámara de Compensación Electrónica