Un nuevo estudio realizado por la startup de inteligencia artificial Anthropic plantea dudas sobre la seguridad de los modelos chinos de DeepSeek, de los que tanto se ha hablado últimamente.
Anthropic puso de relieve graves vulnerabilidades en los sistemas de control de seguridad del chatbot, con la posibilidad de difundir información peligrosa y detallada sobre temas sensibles, como la construcción de armas biológicas. El modelo no tiene ninguna forma de protección contra la generación de información potencialmente peligrosa», escribió Dario Amodei, CEO de Anthropic, en una entrada de su blog oficial, explicando que DeepSeek mostraba “las defensas más débiles jamás encontradas en un modelo de IA”.
Las conclusiones de Anthropic han sido confirmadas por un estudio independiente realizado por Cisco, que también cuenta con una división interna de seguridad. Los resultados de la investigación sobre el modelo DeepSeek R1 apuntan a una «tasa de éxito de los ataques» del 100%, lo que significa que el sistema es incapaz de bloquear peticiones potencialmente maliciosas. Esto incluye la generación de contenidos que pueden utilizarse para la ciberdelincuencia, la desinformación y otras actividades ilícitas.
Es importante destacar que el problema de seguridad no se limita a DeepSeek. Otros modelos de IA también presentan vulnerabilidades significativas: según Anthropic, la «tasa de éxito de ataque» de ChatGpt 1.5 Pro es del 86%, mientras que la de Llama 3.1 405b de Meta es del 96%. A pesar de las críticas surgidas, Amodei no demoniza a DeepSeek, reconociendo su papel protagonista en el panorama de la IA. Sin embargo, insta a la empresa a «considerar seriamente los aspectos de seguridad».
Fuente: Web. Editado por CambioDigital OnLine