Giga Computing anuncia un nuevo servidor basado en la plataforma NVIDIA GB200 NVL4 en SCA/HPC Asia 2026
- Masterbitz

- hace 6 días
- 3 Min. de lectura
Giga Computing, una subsidiaria de GIGABYTE y líder en soluciones de centro de datos y computación de alto rendimiento, anunció hoy el lanzamiento de su servidor AI y HPC de próxima generación, GIGABYTE XN24-VC0-LA61, impulsado por la plataforma NVIDIA GB200 NVL4. Diseñado para su arquitectura heterogénea de CPU y GPU, el sistema hará su debut en SCA/HPC Asia 2026 en Osaka, Japón, mostrando la última innovación de Giga Computing en computación acelerada con tecnologías de refrigeración líquida.
El servidor XN24 ha sido seleccionado para la plataforma híbrida HPC-Quantum de próxima generación del Centro RIKEN para la Ciencia Computacional (R-CCS). La nueva plataforma integra los servidores GIGABYTE en el desarrollo de FugakuNEXT, el eventual sucesor de la supercomputadora insignia de Japón, Fugaku. Esta integración utilizará la plataforma NVIDIA CUDA-Q para apoyar el desarrollo de sistemas híbridos de supercomputación de GPU cuántica e investigación en aplicaciones científicas avanzadas que puentean la computación cuántica y tradicional de alto rendimiento.
Aprende más sobre La plataforma de convergencia Quantum-HPC de RIKEN
Más allá del XN24, Giga Computing también está demostrando una cartera de implementación integral en el evento, que abarca desde la infraestructura de inteligencia artificial de nivel empresarial hasta las soluciones de centros de datos a escala de rack, subrayando su papel como proveedor de hardware fundamental para los centros de datos informáticos científicos de alta gama global.
Enfriado por líquido: computación acelerada
El GIGABYTE XN24-VC0-LA61 NVIDIA Grace Blackwell plataforma de servidor basada en la arquitectura modular NVIDIA MGX. Con un diseño de procesador dual de 2U, incorpora tecnología de refrigeración líquida directa (DLC). Diseñado para la escalabilidad modular, el XN24 ofrece una alternativa flexible para que las organizaciones implementen la potencia informática de la clase NVIDIA Blackwell sin el requisito inmediato de una infraestructura a escala de rack completa. Proporciona una base básica para la construcción de infraestructura de inteligencia artificial escalable y de alta eficiencia.
Densidad de computación extrema: impulsada por NVIDIA GB200 NVL4, el sistema integra dos CPU NVIDIA Grace basadas en la arquitectura Arm y cuatro GPU NVIDIA Blackwell. Cada Superchip está equipado con 480 GB de memoria de CPU LPDDR5X ECC, mientras que la GPU proporciona hasta 186 GB de memoria HBM3E, simulaciones científicas significativamente aceleradas, capacitación de Modelo de Lenguaje Grande (LLM) y tareas de inferencia de alto rendimiento.
Integración de red de alta velocidad: El sistema es compatible con la plataforma NVIDIA Quantum-X800 InfiniBand o Spectrum-X Ethernet con 800 Gb/s InfiniBand o 400 Gb/s Ethernet por puerto, utilizando soluciones NVIDIA ConnectX-8 SuperNIC para garantizar una comunicación de baja latencia y alto ancho de banda a través de clústeres multinodo.
Almacenamiento flexible y expansión: ofrece hasta doce bahías de unidades PCIe Gen 5 NVMe y admite DPU opcionales (unidades de procesamiento de datos), como NVIDIA BlueField, para la descarga acelerada por hardware de tareas informáticas y de seguridad. El sistema también está equipado con 80 fuentes de alimentación redundantes de titanio Plus para garantizar operaciones eficientes y estables del centro de datos.
Cartera integral de IA y HPC en SCA/HPC Asia
Giga Computing está mostrando un espectro completo de soluciones en arquitecturas aceleradas por GPU, Arm y x86:
GIGAPOD: Solución de inteligencia artificial a escala de rack: una solución a escala de rack personalizable que integra 32 servidores de GPU GIGABYTE con redes y almacenamiento optimizados. La serie G4L3 se basa en la plataforma NVIDIA HGX, que admite procesadores Intel Xeon y está diseñada para fábricas de IA y cargas de trabajo LLM intensivas.
XL44-SX2-AAS1 construido en la plataforma NVIDIA MGX: un servidor modular refrigerado por aire ideal para la capacitación empresarial en inteligencia artificial, inferencia y computación visual. Es compatible con procesadores Intel Xeon duales, hasta ocho NVIDIA RTX PRO 6000 Blackwell, un DPU NVIDIA BlueField-3 y cuatro SuperNIC NVIDIA ConnectX-8.
AMD EPYC Compute Nodes TO25-ZU4 & TO25-ZU5: Compatible con los estándares OCP ORV3 (Open Rack v3), estos nodos utilizan procesadores de la serie AMD EPYC 9005/9004. Diseñados para centros de datos de hiperescala y proveedores de servicios en la nube (CSP), ofrecen una escalabilidad excepcional con E1. Soporte SSD y configuraciones flexibles de PCIe Gen 5 NVMe.
Giga Computing será el anfitrión del "Giga Computing AI/HPC Partner Seminar" el 28 de enero de 2026, en el Centro Internacional de Convenciones de Osaka (Sala 803). Junto con los socios del ecosistema en procesadores, almacenamiento y HPC, discutiremos las experiencias de implementación y las tendencias futuras de la industria.
Fuente: Gigabyte

















.png)



Comentarios