Ryzen AI MAX+ 395 de AMD ofrece hasta 12 veces más rendimiento AI LLM que «Lunar Lake» de Intel
Masterbitz
18 mar
2 Min. de lectura
El último buque insignia de AMD, la APU Ryzen AI MAX+ 395 «Strix Halo», demuestra algunas ventajas de rendimiento impresionantes sobre los procesadores «Lunar Lake» de Intel en grandes cargas de trabajo de inferencia de modelos de lenguaje (LLM), según recientes pruebas en el blog de AMD. Con 16 núcleos de CPU Zen 5, 40 unidades de cálculo RDNA 3.5 y más de 50 AI TOPS a través de su NPU XDNA 2, el procesador logra tiempos de respuesta hasta 12,2 veces más rápidos que el Core Ultra 258V de Intel en escenarios LLM específicos. En particular, Lunar Lake de Intel tiene cuatro núcleos E y cuatro núcleos P, que en total es la mitad del número de núcleos de la CPU Ryzen AI MAX+ 395, pero la diferencia de rendimiento es mucho más pronunciada que la diferencia de 2 núcleos. La diferencia de rendimiento se hace aún más notable con la complejidad del modelo, especialmente con modelos de 14.000 millones de parámetros que se acercan al límite de lo que pueden manejar los portátiles estándar de 32 GB.
En las pruebas de LM Studio realizadas con una ASUS ROG Flow Z13 con 64 GB de memoria unificada, la GPU Radeon 8060S integrada proporcionó un rendimiento de tokens 2,2 veces superior al de la Intel Arc 140V en varias arquitecturas de modelos. Las métricas de tiempo hasta el primer token revelaron una ventaja de 4x en modelos más pequeños como Llama 3.2 3B Instruct, que se amplía a 9,1x con modelos de 7-8B parámetros como las variantes DeepSeek R1 Distill. La arquitectura de AMD destaca especialmente en tareas de visión multimodal, en las que Ryzen AI MAX+ 395 procesó entradas visuales complejas hasta 7 veces más rápido en IBM Granite Vision 3.2 3B y 6 veces más rápido en Google Gemma 3 12B en comparación con la oferta de Intel. La compatibilidad de la plataforma con la memoria gráfica variable de AMD permite asignar hasta 96 GB como VRAM desde sistemas equipados con 128 GB de memoria unificada, lo que posibilita el despliegue de modelos de última generación como Google Gemma 3 27B Vision. Las ventajas de rendimiento del procesador se extienden a aplicaciones prácticas de IA, como el análisis de imágenes médicas y la asistencia a la codificación mediante una cuantización de 6 bits de mayor precisión en el modelo DeepSeek R1 Distill Qwen 32B.
Commentaires