top of page
sabrent 3.png
210610_KR-FV43U_banner_1500x1500px_A.png
  • Masterbitz

AMD lanza la 4ª generación de procesadores para servidores EPYC "Genoa" Zen 4.

AMD, en un evento especial para los medios de comunicación titulado "together we advance_data centers", lanzó formalmente su 4ª generación de procesadores para servidores EPYC "Genoa" basados en la microarquitectura "Zen 4". Estos procesadores estrenan una plataforma totalmente nueva, con una moderna conectividad de E/S que incluye PCI-Express Gen 5, CXL y memoria DDR5. Los procesadores se presentan con un número de núcleos de CPU de hasta 96 núcleos/192 hilos. Hay hasta 18 referencias de procesadores, que se diferencian no sólo por el número de núcleos de la CPU, sino también por la forma en que se reparten los núcleos en los hasta 12 chiplets "Zen 4" (CCD). Cada chiplet cuenta con hasta 8 núcleos de CPU "Zen 4", dependiendo del modelo; hasta 32 MB de caché L3, y está construido en el proceso EUV de 5 nm de TSMC. Los CCD se comunican con un troquel de E/S de servidor centralizado (sIOD), construido en el proceso de 6 nm.


Los procesadores que AMD lanza hoy son la serie EPYC "Genoa", dirigida a servidores de propósito general, aunque también pueden desplegarse en grandes centros de datos en la nube. Para los proveedores de la nube a gran escala, como AWS, Azure y Google Cloud, AMD está preparando otra clase de procesadores, cuyo nombre en clave es "Bergamo", que tiene previsto lanzar más adelante. En 2023, la empresa lanzará la línea de procesadores "Genoa-X" para aplicaciones de computación técnica y HPC, que se benefician de grandes cachés en el chip, ya que cuentan con la tecnología 3D Vertical Cache. También habrá "Siena", una clase de procesadores EPYC dirigida a los mercados de telecomunicaciones y computación de borde, que podría ver una integración de más IP de Xilinx.


El procesador EPYC "Genoa", como ya hemos mencionado, viene con un número de núcleos de hasta 96 núcleos/192 hilos, dominando el número de 40 núcleos/80 hilos de la 3ª generación de Xeon Scalable "Ice Lake-SP", y quedando también por delante del número de 60 núcleos/120 hilos del próximo Xeon Scalable "Sapphire Rapids". El nuevo procesador de AMD también ve pulidas sus capacidades de E/S, con una interfaz de memoria DDR5 de 12 canales (24 subcanales), y una gigantesca interfaz PCI-Express Gen 5 de 160 carriles (eso son diez ranuras Gen 5 x16 funcionando a pleno ancho de banda). y la compatibilidad de la plataforma con los enlaces CXL y 2P xGMI restando algunos de esos carriles polivalentes.


El nuevo troquel de E/S para servidores (sIOD) de 6 nm tiene un número de transistores significativamente mayor que el de 12 nm que alimentaba los procesadores EPYC de la generación anterior. El elevado número de transistores se debe a los dos grandes componentes SERDES (serializador-deserializador) configurables de 80 carriles, que pueden configurarse para emitir carriles PCIe Gen 5, carriles CXL 1.1, puertos SATA de 6 Gbps o incluso el Infinity Fabric inter-socket que permite las plataformas 2P. El procesador admite hasta 64 carriles CXL 1.1 que pueden utilizarse para conectar dispositivos de memoria compartida en red. La tercera generación de Infinity Fabric conecta los distintos componentes dentro del sIOD, el sIOD a los doce CCD "Zen 4" a través de IFOP, y como interconexión entre sockets. El procesador cuenta con una interfaz de memoria de 12 canales (24 subcanales de 40 bits), que admite hasta 6 TB de memoria ECC DDR5-4800 por zócalo. El procesador seguro de última generación ofrece SEV-SNP (paginación anidada segura), y AES-256-XTS, para un mayor número de máquinas virtuales seguras.


Cada uno de los complejos de CPU (CCD) de 5 nm es físicamente idéntico a los que se encuentran en los procesadores de sobremesa Ryzen serie 7000 "Raphael". Incorpora 8 núcleos de CPU "Zen 4", cada uno con 1 MB de caché L2 dedicada y 32 MB de caché L3 compartida entre los 8 núcleos. Cada núcleo "Zen 4" proporciona una mejora de rendimiento del 14% en comparación con el "Zen 3", manteniendo constante la velocidad de reloj. Gran parte de esta mejora se debe a las actualizaciones de la unidad Front-end y Load/store del núcleo, mientras que el predictor de bifurcaciones, la mayor caché L2 y el motor de ejecución contribuyen en menor medida. El mayor cambio generacional se produce en la ISA, que introduce soporte para el conjunto de instrucciones AVX-512, VNNI y bfloat16. Los nuevos conjuntos de instrucciones deberían acelerar las cargas de trabajo matemáticas de AVX-512, así como el rendimiento de las aplicaciones de IA. AMD afirma que su implementación de AVX-512 es más eficiente en cuanto a la matriz en comparación con la de Intel, ya que utiliza la FPU de 256 bits de ancho existente de forma doble para permitir operaciones de 512 bits.


AMD lanza hoy un total de 18 referencias de procesadores, todas ellas destinadas a la plataforma Socket SP5. Sigue la nomenclatura descrita en la siguiente diapositiva. EPYC es la marca de nivel superior, "9" es la serie del producto. El siguiente dígito indica el número de núcleos: "0" indica 8 núcleos, "1" indica 16, "2" indica 24, "3" indica 32, "4" indica 48, "5" indica 64 y "6" indica 84-96. El siguiente dígito indica el rendimiento en una escala del 1 al 10. El último dígito es en realidad un carácter, que puede ser "P" o "F", siendo la P la que denota las SKU con capacidad 2P, y la "F" la que denota las SKU especiales que se centran en menos núcleos por CCD para mejorar el rendimiento por núcleo. El TDP configurable de todas las SKUs es de hasta 400 W, lo que parece alto, pero hay que tener en cuenta el número de núcleos de la CPU, y el impacto que tiene en el número de hojas de servidor por rack. Esta es una de las razones por las que AMD no está escalando más allá de 2 sockets por servidor. La densidad de núcleos de la compañía se traduce en un 67% menos de servidores y un 52% menos de energía.


En términos de rendimiento, AMD sólo dispone de los procesadores de tercera generación Xeon Scalable "Ice Lake-SP" de Intel para comparar, ya que "Sapphire Rapids" aún no ha sido lanzado. Con los recuentos de núcleos igualados, el EPYC 9174F de 16 núcleos es un 47% más rápido que el Xeon Gold 6346; el EPYC 9374F de 32 núcleos es un 55% más rápido que el Xeon Platinum 8362; y el EPYC 9474F de 48 núcleos es un 51% más rápido que el Xeon Platinum 8380 de 40 núcleos. En el mismo grupo de pruebas también se observa un liderazgo de rendimiento en punto flotante del 58-96% a favor de AMD.


Fuente:Techpowerup

3 visualizaciones0 comentarios
FS140-BLACK-V3
FS140-BLACK-V3

press to zoom
1
1

press to zoom
8
8

press to zoom
FS140-BLACK-V3
FS140-BLACK-V3

press to zoom
1/5
bottom of page