Palo Alto Networks alerta sobre riesgos de seguridad globales por el auge de la IA Generativa

0
14

Un informe global de Unit 42 revela un crecimiento explosivo del uso de GenAI y un aumento significativo en incidentes de pérdida de datos en entornos empresariales.

La inteligencia artificial generativa (GenAI) se ha integrado rápidamente en las operaciones empresariales a nivel mundial. Sin embargo, esta adopción acelerada ha generado nuevos y considerables riesgos para la ciberseguridad.

Según el informe «The State of Generative AI 2025» de Unit 42, el equipo de inteligencia de amenazas de Palo Alto Networks, el tráfico global de GenAI creció más de un 890% en 2024. Como resultado, los incidentes de pérdida de datos relacionados con estas herramientas se han multiplicado por 2.5 en lo que va de 2025, representando ahora el 14% de todos los incidentes de seguridad en entornos SaaS (Software como Servicio).

El desafío de la «Shadow AI»
El estudio, basado en el análisis de más de 7.000 organizaciones en todo el mundo, destaca un fenómeno preocupante conocido como «Shadow AI»: el uso de herramientas de GenAI por parte de los empleados sin el conocimiento o la supervisión del departamento de TI.

Estas herramientas, que pueden ir desde aplicaciones de redacción de correos electrónicos hasta chatbots para generar código, a menudo se utilizan de forma inadvertida. No obstante, cuando se emplean sin los controles adecuados, pueden exponer información confidencial, llevar a incumplimientos regulatorios o causar la pérdida de propiedad intelectual.

Estrategias de seguridad para la adopción de GenAI
Palo Alto Networks subraya la necesidad de que las organizaciones establezcan políticas claras de uso y mecanismos de control para aprovechar los beneficios de GenAI sin comprometer la seguridad. Para ello, se recomienda una estrategia integral de seguridad que incluya:

Visibilidad y control en tiempo real: La tecnología AI Access Security de Palo Alto Networks permite a las organizaciones identificar qué herramientas de GenAI de terceros están siendo utilizadas en su red. Esto permite aplicar controles de acceso según el nivel de riesgo de la aplicación, evitando la exposición de datos sensibles.

Inspección de contenidos en tiempo real: Es crucial detectar y bloquear el uso indebido de datos sensibles (como información financiera o personal) antes de que se envíen a plataformas externas, especialmente en entornos SaaS.

Enfoque zero trust: Una estrategia de seguridad que asume que ninguna interacción es segura por defecto, permitiendo identificar y detener amenazas sofisticadas que pueden estar ocultas incluso en las respuestas generadas por IA.

Formación y concientización: La formación continua del personal es esencial. Los usuarios deben comprender los riesgos asociados y saber cómo usar estas herramientas de manera segura y responsable.

Fuente: Unit 42

 

Custom Text
Artículo anteriorEstudio estadounidense cuestiona la eficacia del ‘fact-checking’ en X
Artículo siguienteZoom impulsa la productividad con nuevascapacidades de Inteligencia Artificial Agente