top of page
IG.png

HBM de próxima generación se centra en núcleos de GPU integrados

  • Foto del escritor: Masterbitz
    Masterbitz
  • 26 nov
  • 2 Min. de lectura

Las empresas de tecnología están explorando un cambio importante en el diseño de HBM que busca incrustar núcleos de GPU directamente en las pilas de memoria de próxima generación. Según informes de la industria coreana, Meta y NVIDIA están evaluando "HBM personalizado" arquitecturas que integran núcleos de GPU en el dado base de los futuros dispositivos HBM, con SK Hynix Y Samsung dijo que estaba involucrado en las primeras discusiones. HBM apila múltiples matrices de DRAM en la parte superior de una matriz de base que maneja E/S externa. Se espera que HBM4 alcance Producción en masa El próximo año incluirá un controlador a bordo para mejorar el ancho de banda y la eficiencia. La integración de los núcleos de la GPU llevaría este concepto varios pasos más allá, distribuyendo el cálculo en la propia memoria para reducir el movimiento de datos y reducir el uso de energía. Fuentes de la industria dicen que el enfoque podría aumentar tanto el rendimiento como la eficiencia energética para las cargas de trabajo de IA al reducir la distancia entre la computación y la memoria. Pero el diseño todavía enfrenta grandes dificultades, como el área de troquel limitada en pilas basadas en Through-Silicon Vias (TSV), las restricciones de entrega de potencia y la dificultad de enfriar esa lógica de GPU informática dentro de la matriz base.

ree

Kim Joung-ho, profesor de la Escuela de Ingeniería Eléctrica de KAIST, dijo: "La velocidad de transición tecnológica donde la frontera entre la memoria y los semiconductores del sistema colapsa para el avance de la IA se acelerará", y agregó: "Las empresas domésticas deben expandir su ecosistema más allá de la memoria en el sector lógico para adelantarse al mercado de HBM de próxima generación". AMD ha sido presentada recientemente Instinto MI430X El acelerador basado en la arquitectura AMD CDNA de próxima generación admite 432 GB de memoria HBM4 y 19,6 TB/s de ancho de banda de memoria. Superchip "Vera Rubin" de NVIDIA Toma un enfoque diferente. Cada GPU Rubin integra dos chiplets de cálculo del tamaño de una retícula emparejados con ocho pilas HBM4, que ofrecen alrededor de 288 GB de HBM4 por GPU y aproximadamente 576 GB de HBM4 en todo el Superchip. De esos cambios potenciales, las empresas que tienen fuertes capacidades de empaque y lógica se beneficiarán, mientras que los proveedores de memoria pura pueden necesitar expandirse a tecnologías de semiconductores a nivel de sistema para mantenerse competitivos.


Comentarios


Aplus_MARS_2107_Eng(1).png
undefined - Imgur(1).jpg

Siguenos

  • Facebook
  • Twitter
  • YouTube
  • Instagram
gaming

© 2016 Derechos Reservados a MasterbitzReviewHN

bottom of page