OpenAI anunció una ampliación de su programa Trusted Access for Cyber (TAC), una iniciativa destinada a proporcionar a defensores verificados acceso a capacidades avanzadas de inteligencia artificial orientadas a la ciberseguridad. La compañía presentó además GPT‑5.4‑Cyber, una variante de su modelo más reciente entrenada específicamente para tareas defensivas y con restricciones reducidas para permitir análisis técnicos que requieren mayor profundidad.
El anuncio se produce en un contexto en el que la IA se ha convertido en una herramienta clave tanto para quienes protegen sistemas como para actores maliciosos. OpenAI sostiene que la evolución de sus modelos exige un enfoque paralelo en el fortalecimiento de salvaguardas, la verificación de usuarios y la ampliación de mecanismos que permitan a los defensores operar con mayor eficacia sin aumentar los riesgos de uso indebido.
La compañía explica que su estrategia se apoya en tres principios: acceso democratizado, despliegue iterativo y resiliencia del ecosistema. El primero busca evitar decisiones arbitrarias sobre quién puede utilizar capacidades avanzadas, sustituyéndolas por criterios objetivos como la verificación de identidad y señales de confianza. El segundo se basa en la idea de que los modelos deben desplegarse de forma gradual para evaluar riesgos y ajustar salvaguardas. El tercero apunta a fortalecer a la comunidad de defensores mediante subvenciones, herramientas abiertas y tecnologías que permitan identificar y corregir vulnerabilidades con mayor rapidez.
OpenAI recuerda que desde 2023 ha desarrollado iniciativas para apoyar a profesionales de ciberseguridad, como su Cybersecurity Grant Program y el Preparedness Framework, que evalúa riesgos asociados a modelos avanzados. En 2025 comenzó a incorporar salvaguardas específicas para ciberseguridad en sus despliegues, y en 2026 lanzó Codex Security, un sistema capaz de analizar bases de código, validar problemas y proponer correcciones de forma automatizada. Según la compañía, esta herramienta ha contribuido a resolver miles de vulnerabilidades críticas y de alta severidad en proyectos de software.
La ampliación del programa TAC introduce nuevos niveles de acceso para usuarios y organizaciones que estén dispuestos a autenticarse como defensores legítimos. Aquellos en los niveles superiores podrán utilizar GPT‑5.4‑Cyber, un modelo más permisivo que permite, entre otras capacidades, realizar ingeniería inversa de binarios para identificar malware o evaluar la robustez de software compilado sin necesidad de acceder al código fuente. Debido a su naturaleza sensible, OpenAI limitará inicialmente su disponibilidad a proveedores de seguridad, equipos especializados y grupos de investigación verificados.
La compañía advierte que el acceso a modelos más permisivos puede incluir restricciones adicionales en entornos donde no exista visibilidad suficiente sobre el usuario o el propósito de la solicitud, como ocurre con plataformas de terceros o configuraciones de Zero‑Data Retention. Para individuos, el proceso de verificación se realiza mediante identidad validada; para organizaciones, a través de solicitudes gestionadas por representantes de OpenAI.
El comunicado también aborda la evolución de las defensas necesarias para modelos cada vez más potentes. OpenAI afirma que las salvaguardas actuales son suficientes para los modelos disponibles y para las versiones próximas, aunque anticipa que futuras generaciones requerirán mecanismos más amplios y sofisticados para mantener un nivel adecuado de seguridad.
El enfoque de la compañía refleja una tendencia más amplia en el sector: la necesidad de equilibrar el acceso a capacidades avanzadas con controles que eviten su uso indebido. Analistas de ciberseguridad han señalado que la automatización impulsada por IA puede acelerar tanto la identificación de vulnerabilidades como la creación de ataques más complejos, lo que obliga a reforzar la supervisión, la verificación y la colaboración entre proveedores, defensores y comunidades de código abierto.
Fuente: OpenAI | Editado por CDOL









































