Western Digital valida el rendimiento del almacenamiento de IA en el mundo real con los resultados de MLPerf Storage V2
- Masterbitz

- 5 ago 2025
- 4 Min. de lectura
A medida que las cargas de trabajo de IA aumentan en complejidad y escala, la capacidad de los sistemas de almacenamiento para mantener el ritmo de la infraestructura de cómputo acelerada se ha convertido en un factor crítico en el desempeño general. Western Digital (Nasdaq: WDC) anunció hoy sus resultados de envío de MLPerf Storage V2, validando las capacidades del mundo real de su OpenFlex Data24 4000 Series NVMe-oF Storage Platform. Los resultados afirman la capacidad de OpenFlex Data24 (grupo de flash de EBOnet) para satisfacer las rigurosas demandas de las cargas de trabajo modernas de IA, ofreciendo un alto rendimiento, eficiencia y escalabilidad en una solución rentable para la infraestructura de IA moderna.

OpenFlex Data24 NVMe-oF Storage Platform de Western Digital amplía el alto rendimiento de NVMe flash sobre el tejido Ethernet para permitir el almacenamiento compartido de baja latencia para infraestructura de IA escalable y desagregada. Diseñado para simplificar el despliegue, reducir el costo y crecer con la demanda de GPU, el OpenFlex Data24 proporciona la capacidad de escalar el almacenamiento y calcular de forma independiente para una mayor flexibilidad.
Para reflejar escenarios de implementación realistas y exigentes en los que los sistemas de almacenamiento deben mantenerse al ritmo de la infraestructura acelerada de GPU, Western Digital colaboró con PEAK:AIO, un proveedor de SDS de alto rendimiento con la capacidad de ingerir, encender y servir grandes volúmenes de datos a altas velocidades.
La presentación de validación utilizó SSD NVMe Serie KIOXIA CM7-V Series, seleccionados por sus características de rendimiento sobresalientes en cargas de IA exigentes. Cuando se despliegan en el recinto OpenFlex Data24, permiten la entrega de datos desglosadas de alto rendimiento a muchos clientes-nodos de GPU.
Resultados de MLPerf Almacenamiento V2 de Benchmark
MLPerf es ampliamente considerado como el patrón de oro de la industria para el benchmarking de IA. Los resultados de MLPerf Storage V2 de Western Digital muestran cómo esta arquitectura no sólo ofrece rendimiento a escala, sino que lo hace con un enfoque en la eficiencia y la economía de implementación práctica con y sin una capa de almacenamiento definida por software (SDS).
MLPerf Storage utiliza nodos de clientes de GPU - sistemas que simulan el comportamiento de un servidor de IA que accede al almacenamiento durante el entrenamiento o infiere para generar los patrones de carga de E/S típicos de las cargas de GPU del mundo real - para evaluar qué tan bien una plataforma de almacenamiento soporta entornos de IA distribuidos en múltiples clientes de GPU concurrentes. Las pruebas de entrenamiento de IA utilizadas en el suite de almacenamiento MLPerf miden la eficacia con que el sistema sirve a cargas de IA que subsanan diferentes aspectos del almacenamiento de E/S, incluyendo la producción y la concurrencia, a través de varios modelos de aprendizaje profundo. Hay dos puntos de referencia clave de la carga de trabajo utilizados para MLPerf:
Carga de trabajo 3D U-Net
3D-UNet es un modelo de aprendizaje profundo utilizado en imágenes médicas y segmentación volumétrica. Coloca una carga mucho más pesada en los sistemas de almacenamiento debido a sus grandes conjuntos de datos de entrada 3D y patrones intensivos de lectura de flujo de datos. Como tal, es un punto de referencia más estricto para demostrar un rendimiento sostenido de alto ancho de banda y baja de lalatencia en todos los flujos de trabajo de IA de varios ganglios.
En este modelo:
OpenFlex Data24 de Western Digital logró un rendimiento sostenido de lectura de 106.5 GB/s (99.2 GiB/s), saturando 36 GPUs de H100 simulados en tres nodos físicos de clientes que demuestran la capacidad del EBOF para manejar tareas de entrenamiento de alto paraelismo con facilidad.
Con el servidor de datos PEAK:AIO AI Data24 fue capaz de entregar 64.9 GB/s (59.6 GiB/s), saturando 22 GPUs de H100 simulados de un solo servidor de cabecera y un solo nodo de cliente.





.png)



Comentarios