top of page
IG.png

Huawei presenta su HBM y Ascend 950 de desarrollo propio, y apuesta por los superclústeres masivos.

  • Foto del escritor: Masterbitz
    Masterbitz
  • 18 sept
  • 3 Min. de lectura

Huawei utilizó su evento Connect 2025 para dar a conocer una ambiciosa hoja de ruta de hardware que combina la primera memoria HBM autodesarrollada de la compañía con una nueva generación de aceleradores de Aventura de Asistentes de Asistentes de Asistentes, y el mensaje fue claro: Huawei competirá a escala en lugar de supremacía de un solo chip. Aunque sigue rezagado con respecto a NVIDIA sobre el rendimiento por chip, las soluciones a escala del sistema pueden ser competitivas. La compañía confirmó a la familia Ascend 950 para principios de 2026 en dos variantes. Un modelo, etiquetado 950PR, se describe con unos 128 GB de HBM interno y aproximadamente 1.6 TB/s de ancho de banda, mientras que el 950DT aumenta la memoria a 144 GB y empuja ancho de banda hacia 4 TB/s. Huawei también diseñó planes a más largo plazo para los dispositivos Ascend 960 y Ascend 970 que llegan en 2027 y 2028, prometiendo mayores capacidades de memoria agregada, mayor ancho de banda interconectar y soporte más amplio para formatos de precisión FP8.

  

Huawei enmarcó su estrategia competitiva en torno a un denso embalaje y redes agresivas, no en bruto por chip. La compañía mostró SuperPoDs y describió SuperClusters construidos a partir de esos bloques de construcción, impulsados por un nuevo protocolo de interconexión Lingqu y enlaces ópticos que tienen como objetivo unir cientos de miles de tarjetas. Huawei dijo que un supernodo Atlas 950 de Q4 2025 basado en unidades Ascend 950 apuntará a cargas de trabajo de primer nivel del FP8, y que futuros grupos Atlas 960 aumentarán aún más los conteos de chips y el rendimiento. Su SuperCluster más grande ofrecerá un increíble 524 ExaFLOPS de cómputo del FP8, y un total de ZettaFLOP de cómputo FP4. Esto es posible utilizando 64 SuperPoDs Atlas, que albergan hasta 524.288 aceleradores en total. Un solo sistema como este puede soportar múltiples laboratorios de IA y su entrenamiento e inferencia se ejecuta. El clúster occidental más grande en desarrollo hoy en día es el Coloso 2 de xAI, que utilizará más de 550.000 GPUs NVIDIA GB200 y GB300. La escala de los diseños de Huawei es ahora comparable a la mejor que NVIDIA y sus socios pueden hacer.

   

El enfoque de Huawei radica en una filosofía simple: si la memoria y la red pueden ser propiedad y los sistemas pueden escalar mucho más allá de un solo rack, entonces el rendimiento agregado puede compensar las brechas de nivel de muerte que tienen con los fabricantes de chips occidentales como NVIDIA, AMD y otros. Si esos SuperClusters se materializan como se había prometido, podrían obligar a los operadores de centros de datos a replantearse las compensaciones entre la eficiencia de un solo chip y el rendimiento masivo a nivel de clúster. Aún así, para los despliegues domésticos, la red eléctrica de China puede mantener mucha más carga y permitirse el lujo de desperdiciar algún poder extra para producir más rendimiento de cómputo de IA. Los centros de datos y los clústeres de IA basados en EE.UU. suelen ser limitados, lo que impide la creación de sistemas masivos, con pocas excepciones solitarias. China, por otro lado, puede permitírselo, y este gráfico por SemiAnalysis pinta el cuadro de las diferencias de generación de energía entre dos países.


ree

Comentarios


Aplus_MARS_2107_Eng(1).png
undefined - Imgur(1).jpg

Siguenos

  • Facebook
  • Twitter
  • YouTube
  • Instagram
gaming

© 2016 Derechos Reservados a MasterbitzReviewHN

bottom of page