La presentación del Silicon One G300 se enmarca en un momento en el que la infraestructura para IA empieza a redefinirse desde la red. Cisco describe un escenario donde el crecimiento de los modelos y la distribución de cargas entre miles de aceleradores convierten al tejido de interconexión en un componente tan determinante como la propia capacidad de cómputo. En ese contexto, la compañía introduce un chip de 102,4 Tbps orientado a sostener clústeres de gran escala, con énfasis en eficiencia operativa, estabilidad del tráfico y reducción de pérdidas en procesos de entrenamiento intensivo.
El diseño del G300 combina un búfer de paquetes completamente compartido, balanceo de carga basado en rutas y telemetría continua. Cisco plantea que esta combinación permite absorber variaciones bruscas en el tráfico y mantener la estabilidad del tejido de red, un aspecto que se vuelve crítico cuando los modelos requieren miles de GPU trabajando en paralelo. La programabilidad del silicio busca prolongar la vida útil de los despliegues, mientras que las funciones de seguridad en hardware apuntan a proteger flujos de datos sensibles en entornos de alta densidad computacional.
El chip alimenta nuevas generaciones de los sistemas Cisco N9000 y Cisco 8000, disponibles en variantes de refrigeración líquida o por aire. La opción líquida permite concentrar mayor capacidad en menos espacio y mejorar la eficiencia energética frente a generaciones previas. En paralelo, la compañía presentó ópticas de 1,6T OSFP para enlaces de alta capacidad y módulos 800G LPO que reducen el consumo al prescindir del retiming. Estas piezas acompañan la transición hacia redes Ethernet de 1,6T en centros de datos orientados a IA.
Cisco amplió además su portafolio basado en Silicon One P200 con nuevos sistemas N9000 y tarjetas modulares de 28,8T, dirigidos a interconexión de centros de datos, redes troncales y despliegues de proveedores de servicios. La estrategia se completa con Nexus One, un plano de gestión que integra silicio, sistemas, ópticas y software bajo un modelo operativo unificado. La plataforma incorpora automatización mediante API y un enfoque de tejido distribuido que busca simplificar la operación de redes de IA a gran escala. La integración con Splunk, prevista para marzo, permitirá correlacionar telemetría de red con el comportamiento de cargas de IA sin mover datos fuera del entorno, algo relevante para organizaciones con requisitos de soberanía.
El anuncio también incluye AgenticOps, un enfoque de operación asistida que utiliza interacciones conversacionales para diagnosticar y resolver incidencias en redes de centros de datos. Cisco enmarca esta propuesta como una forma de reducir la complejidad operativa en infraestructuras donde la velocidad de respuesta influye directamente en la eficiencia del entrenamiento de modelos.
El ecosistema de socios —entre ellos AMD, Intel, NVIDIA, NetApp, DDN y VAST— coincide en que la capacidad de la red se ha convertido en un factor determinante para aprovechar la inversión en aceleradores. La disponibilidad de enlaces de alta capacidad y de mecanismos para evitar congestión se vuelve tan relevante como la potencia de cómputo, especialmente en clústeres distribuidos.
En conjunto, el anuncio refleja un mercado donde la red deja de ser un componente periférico y pasa a ocupar un lugar central en el rendimiento de la infraestructura de IA. El G300 y las nuevas ópticas y sistemas se presentan como parte de una arquitectura diseñada para sostener cargas de trabajo cada vez más exigentes, con un énfasis en eficiencia energética, escalabilidad y operación integrada.
Fuente: nota de prensa Cisco | Editado por CDOL








































