top of page
IG.png

NextSilicon afirma que su Maverick-2 supera a las GPU de NVIDIA y presenta un nuevo chip RISC-V.

  • Foto del escritor: Masterbitz
    Masterbitz
  • 22 oct
  • 2 Min. de lectura

NextSilicon, una empresa emergente fundada en 2017, ha detallado su Maverick-2 Intelligent Compute Accelerator (ICA), afirmando que supera a la GPU HGX B200 de NVIDIA y a las CPU Sapphire Rapids de Intel en computación de alto rendimiento y cargas de trabajo de inteligencia artificial. Construido en el nodo de 5 nm de TSMC, Maverick-2 está disponible como una tarjeta PCIe de un solo dado con 96 GB de HBM3e (300 W) o una versión OAM de doble matriz con 192 GB de HBM3e (600 W). Según los puntos de referencia internos, Maverick-2 ofrece un rendimiento FP64 por vatio hasta 4 × más alto que el HGX B200 y más de 20 × mayor eficiencia que el Intel Xeon Sapphire Rapids. En los puntos de referencia de GUPS, alcanzó los 32,6 GUPS a 460 W, según se informa, 22 × más rápido que las CPU y 6 × más rápido que las GPU. En las cargas de trabajo de HPCG logró 600 GFLOPS a 750 W, mientras que consumía aproximadamente la mitad de la potencia de las soluciones de la competencia. La compañía atribuye estas ganancias a una arquitectura basada en el flujo de datos que cambia la gestión de gastos generales del hardware al software adaptativo, lo que permite que la mayoría del área de silicio se utilice para la computación en lugar de la lógica de control.

Junto a Maverick-2, NextSilicon anunció Arbel, un chip de nivel empresarial basado en RISC-V también construido sobre el proceso de 5 nm de TSMC. La compañía afirma que Arbel ya supera los diseños actuales de RISC-V, así como Intel Lion Cove Y AMD Zen 5 núcleos. Arbel cuenta con una canalización de instrucciones de 10 anchos con un búfer de reorden de entrada 480 para una alta utilización del núcleo, que funciona a 2,5 GHz. El chip puede ejecutar hasta 16 instrucciones escalares en paralelo e incluye cuatro unidades vectoriales de 128 bits para cargas de trabajo de paralelo a datos. Una caché L1 de 64 KB y una gran caché L3 compartida garantizan un alto rendimiento de memoria y una baja latencia para reducir los cuellos de botella en aplicaciones intensivas en computación. No se reveló una fecha de lanzamiento ni puntos de referencia completos, pero NextSilicon dice que Arbel representa un movimiento hacia una plataforma de silicio totalmente abierta y adaptable al software para futuros sistemas HPC e IA.

  

Fuente: NextSilicon

Comentarios


Aplus_MARS_2107_Eng(1).png
undefined - Imgur(1).jpg

Siguenos

  • Facebook
  • Twitter
  • YouTube
  • Instagram
gaming

© 2016 Derechos Reservados a MasterbitzReviewHN

bottom of page