top of page
IG.png

AMD presenta las GPU Instinct MI400 de 432 GB HBM4 y la solución de IA a escala de bastidor

  • Foto del escritor: Masterbitz
    Masterbitz
  • 13 jun
  • 2 Min. de lectura

En su evento "Advancing AI 2025", AMD presentó su nueva línea Instinct MI350 sobre la arquitectura CDNA 4 y se refirió al próximo acelerador de IA basado en UDNA. Fiel a su ritmo de actualización de aproximadamente un año, la compañía confirmó que la serie Instinct MI400 aterrizará a principios de 2026, mostrando un enorme salto en memoria, ancho de banda de interconexión y potencia de cálculo bruta. Cada tarjeta MI400 cuenta con doce módulos HBM4, que proporcionan la friolera de 432 GB de memoria integrada y un ancho de banda de memoria de casi 19,6 TB/s. Estos primeros módulos HBM4 proporcionan aproximadamente 1,6 TB/s cada uno, justo por debajo de la marca de los 2 TB/s. En el frente computacional, AMD cifra el rendimiento de la MI400 en 20 PetaFLOPS de FP8 y 40 PetaFLOPS de FP4, lo que duplica el rendimiento de matriz dispersa de las tarjetas MI355X actuales. Pero lo que realmente cambia las cosas es la forma en que AMD está escalando esas GPU. Hasta ahora, se podían conectar hasta ocho tarjetas a través de Infinity Fabric, y todo lo que fuera más allá tenía que ir a través de Ethernet.

El enlace de tejido mejorado de MI400 ofrece ahora 300 GB/s, casi el doble de velocidad que la serie MI350, lo que permite crear clústeres de bastidores completos sin depender de redes más lentas. Esta actualización allana el camino a "Helios", la solución de AMD para rack de IA totalmente integrada. Combina las próximas CPU EPYC "Venice" con las GPU MI400 y un equipo de red a medida, ofreciendo una configuración llave en mano para los operadores de centros de datos. AMD tampoco rehuyó las comparaciones. Un rack Helios con 72 tarjetas MI400 proporciona aproximadamente 3,1 ExaFLOPS de rendimiento tensorial y 31 TB de memoria HBM4. Se espera que el sistema Vera Rubin de NVIDIA, que contará con 72 GPU y 288 GB de memoria cada una, alcance unos 3,6 ExaFLOPS, y que las capacidades de AMD lo superen tanto en ancho de banda como en capacidad. Y por si esto fuera poco, ya se habla de un sistema MI450X IF128 mejorado. Previsto para finales de 2026, enlazaría directamente 128 GPU con Infinity Fabric a 1,8 TB/s bidireccionales por dispositivo, lo que permitiría crear clusters de IA a escala de bastidor realmente masivos.

Comentarios


Aplus_MARS_2107_Eng(1).png
undefined - Imgur(1).jpg

Siguenos

  • Facebook
  • Twitter
  • YouTube
  • Instagram
gaming

© 2016 Derechos Reservados a MasterbitzReviewHN

bottom of page