AMD muestra la APU Instinct MI300 Exascale con 146.000 millones de transistores
Durante su keynote del CES 2023, AMD anunció su última APU Instinct MI300, la primera de su clase en el mundo de los centros de datos. La combinación de los elementos de CPU, GPU y memoria en un único paquete elimina la latencia impuesta por las largas distancias de viaje de los datos de la CPU a la memoria y de la CPU a la GPU a través del conector PCIe. Además de resolver algunos problemas de latencia, se necesita menos energía para mover los datos y proporcionar una mayor eficiencia. Instinct MI300 incorpora 24 núcleos Zen4 con multihilo simultáneo habilitado, IP de GPU CDNA3 y 128 GB de memoria HBM3 en un solo encapsulado. El bus de memoria tiene una anchura de 8192 bits, lo que proporciona un acceso unificado a la memoria para los núcleos de CPU y GPU. También es compatible con CLX 3.0, lo que hace realidad la interconexión coherente con la caché.
El paquete de la APU Instinct MI300 es una maravilla de la ingeniería, con técnicas avanzadas de chiplet. AMD ha conseguido realizar un apilamiento 3D y dispone de nueve chiplets lógicos de 5 nm apilados en 3D sobre cuatro chiplets de 6 nm con HBM a su alrededor. Todo ello hace que el número de transistores ascienda a 146.000 millones, lo que representa la enorme complejidad de este diseño. En cuanto a las cifras de rendimiento, AMD las ha comparado con la GPU Instinct MI250X. En rendimiento bruto de IA, la MI300 presenta una mejora de 8 veces respecto a la MI250X, mientras que el rendimiento por vatio se "reduce" a un aumento de 5 veces. Aunque no sabemos qué aplicaciones de referencia se utilizaron, es probable que se emplearan algunas estándar como MLPerf. En cuanto a la disponibilidad, AMD apunta a finales de 2023, cuando llegará el superordenador a exaescala "El Capitán" que utilizará estos aceleradores APU Instinct MI300. Se desconoce el precio, que se dará a conocer primero a los clientes empresariales en torno al lanzamiento.