SK hynix unveils innovative AiM solution to accelerate AI at AI Infra Summit 2025
- Masterbitz

- 1 oct
- 2 Min. de lectura
SK Hynix mostró su solución de memoria de IA mejorada basada en AiM en la I Infra Summit 2025 en Santa Clara, California del 9 al 11 de septiembre, destacando su liderazgo tecnológico en futuros servicios de IA. Los líderes de la industria mundial de IA en la empresa y la investigación se reunieron en la cumbre para demostrar las últimas tecnologías de infraestructura de hardware y software. Anteriormente conocido como la AI Hardware & Edge AI Summit, el evento atrajo a más de 3.500 asistentes y más de 100 socios bajo el lema "Poderizar la IA Rápida, Efficient & Affordable".
En la cumbre, SK Hynix reveló los últimos acontecimientos en su solución AiM, AiMX, con sede en PIM. En su stand operado bajo el lema "Boost Your AI: AiM is What You All Need", la compañía publicó demostraciones en vivo de un sistema de servidor Supermicro (GPU SuperServer SYS-421GE-TNRT3) con dos GPUs NVIDIA H100 y cuatro de sus tarjetas AiMX. Los visitantes pudieron ver el rendimiento del sistema en condiciones del mundo real, presenciando de primera mano las capacidades tecnológicas y la competitividad de AiM.
La manifestación también destacó cómo escalar el muro de memoria en las inferencias de LLM. En los sistemas de GPU, tanto los procesos vinculados a la computación como los de memoria se manejan juntos, lo que puede llevar a ineficiencias a medida que aumentan las solicitudes de usuario o longitudes de contexto. En contraste, un sistema de inferencia desagregado basado en AiMX divide su carga de trabajo en dos fases distintas: la etapa de memoria ejecutada en el acelerador AiMX y la fase de ajuste de cómputo que se ejecuta en la GPU. Esta asignación de carga de trabajo permite al sistema procesar simultáneamente más solicitudes de los usuarios y mayores indicaciones de entrada.
SK hynix también introdujo las mejoras de software en su tarjeta AiMX. La aplicación del marco vLLM ampliamente utilizado en el desarrollo de servicios de IA no sólo aumentó la funcionalidad, sino que también proporcionó un apoyo estable durante una generación simbólica larga, incluso en modelos de razonamiento que implican procesos de inferencia complejos.


















.png)



Comentarios