NVIDIA Blackwell ofrece un rendimiento extraordinario en los últimos resultados de entrenamiento de MLPerf
Masterbitz
6 jun
2 Min. de lectura
NVIDIA está trabajando con empresas de todo el mundo para construir Fábricas de IA- acelerar la formación y el despliegue de las aplicaciones de IA de próxima generación que utilizan los últimos avances en entrenamiento e inferencia. La arquitectura NVIDIA Blackwell está construida para cumplir con los mayores requisitos de rendimiento de estas nuevas aplicaciones. En la última ronda de MLPerf Training, el duodécimo desde la introducción del índice de referencia en 2018.La plataforma de IA NVIDIA obtuvo el mayor rendimiento a escala en cada referencia y apoyó todos los resultados presentados en el modelo de lenguaje más duro del índice de referencia (LLM) prueba centrada: Llama 3.1 405B preentrenamiento.
La plataforma NVIDIA fue la única que presentó resultados en cada MLPerf Training v5.0 benchmark-undernote su rendimiento excepcional y versatilidad a través de una amplia gama de cargas de trabajo de IA, LLMs que abarcan, sistemas de recomendación, LLM multimodal, detección de objetos y grafio de redes neuronales. Las presentaciones a escala utilizaron dos superordenadores de IA alimentados por la plataforma NVIDIA Blackwell: Tyche, construido con el uso de NVIDIA GB200 NVL72 Sistemas a escala de basck, y Nyx, basados en NVIDIA DGX B200 sistemas. Además, NVIDIA colaboró con CoreWeave e IBM para presentar resultados de GB200 NVL72 utilizando un total de 2.496 GPUs de Blackwell y 1.248 CPUs de Gracia NVIDIA.
En el nuevo índice de preentrenamiento de Llama 3.1 405B, Blackwell entregó un rendimiento de 2,2 veces mayor en comparación con la arquitectura de generación anterior a la misma escala. En la referencia de ajuste Llama 2 70B LoRA, los sistemas NVIDIA DGX B200, alimentados por ocho GPUs de Blackwell, entregaron 2,5 veces más rendimiento en comparación con una sumisión utilizando el mismo número de GPUs en la ronda anterior.
Estos saltos de rendimiento destacan los avances en la arquitectura Blackwell, incluyendo bastidores refrigerados por líquidos de alta densidad, 13,4 TB de memoria coherente por rack, quinta generación NVIDIA NVLink y NVIDIA NVLink Switch tecnologías interconectadas para la ampliación y NVIDIA Quantum-2 InfiniBand Redes para escalar. Además, innovaciones en la NVIDIA NeMo Marco La pila de software eleva el listón para la formación multimodal LLM de próxima generación, crítica para traer de IA agenteic aplicaciones al mercado.
Estas aplicaciones agentes impulsadas por IA funcionarán algún día en fábricas de IA los motores de la economía de IA agente. Estas nuevas aplicaciones producirán fichas y valiosa inteligencia que se puede aplicar a casi todas las industrias y dominios académicos.
La plataforma de centro de datos NVIDIA incluye GPUs, CPUs, tejidos de alta velocidad y redes, así como una amplia gama de software como NVIDIA CUDA-X bibliotecas, el Marco NeMo, NVIDIA TensorRT-LLM y Dínamo NVIDIA. Este conjunto altamente sintonizado de tecnologías de hardware y software permite a las organizaciones entrenar e implementar modelos más rápidamente, acelerando dramáticamente el tiempo para valorar.
El ecosistema asociado de NVIDIA participó ampliamente en esta ronda de MLPerf. Más allá de la presentación con CoreWeave e IBM, otras presentaciones convincentes eran de ASUS, Cisco, Dell Technologies, Giga Computing, Google Cloud, Hewlett Packard Enterprise, Lambda, Lenovo, Nebius, Oracle Cloud Infrastructure, Quanta Cloud Technology y Supermicro.
Comments