top of page
sabrent 3.png
210610_KR-FV43U_banner_1500x1500px_A.png
20220530_Trinity_En_Aplus (1)(1).jpg
  • Foto del escritorMasterbitz

SK hynix presenta soluciones de IA y HPC de última generación en SC23

SK hynix presentó sus soluciones líderes de IA y computación de alto rendimiento (HPC) en Supercomputing 2023 (SC23), celebrada en Denver, Colorado, entre el 12 y el 17 de noviembre. Organizada por la Association for Computing Machinery y la IEEE Computer Society desde 1988, la conferencia anual SC muestra los últimos avances en HPC, redes, almacenamiento y análisis de datos. SK hynix hizo su primera aparición en la conferencia presentando sus revolucionarias soluciones de memoria a la comunidad de HPC. Durante los seis días que duró el evento, varios empleados de SK hynix también realizaron presentaciones en las que revelaron el impacto de las soluciones de memoria de la empresa en la IA y la HPC.



Presentación de productos avanzados de HPC e IA

En SC23, SK hynix presentó sus productos adaptados a la IA y la HPC para subrayar su liderazgo en el campo de las memorias para IA. Entre estos productos de nueva generación, HBM3E atrajo la atención, ya que la solución HBM cumple las normas más estrictas del sector en cuanto a velocidad, capacidad, disipación térmica y eficiencia energética. Estas características la hacen especialmente adecuada para los sistemas de servidores de inteligencia artificial que hacen un uso intensivo de datos. HBM3E se presentó junto a la H100 de NVIDIA, una GPU de alto rendimiento para IA que utiliza HBM3 como memoria.


SK hynix también realizó una demostración de AiMX, la tarjeta aceleradora de IA generativa de la compañía especializada en grandes modelos de lenguaje (LLM) que utiliza chips GDDR6-AiM que aprovechan la tecnología PIM. Este producto está llamado a desempeñar un papel clave en el avance de los sistemas de inferencia de IA generativa con gran cantidad de datos, ya que reduce significativamente el tiempo de inferencia de IA de los sistemas de servidor en comparación con los sistemas con GPU, al tiempo que ofrece un menor consumo de energía.


CXL fue otro de los puntos destacados del stand de SK hynix. Basada en PCle, CXL es una interfaz estandarizada que ayuda a aumentar la eficiencia de los sistemas HPC. Al ofrecer una expansión flexible de la memoria, CXL es una interfaz prometedora para sistemas HPC como los de IA y aplicaciones relacionadas con big data. En concreto, la plataforma prototipo de memoria desagregada Niagara CXL de SK hynix se presentó como una solución de memoria agrupada que puede mejorar el rendimiento del sistema en sistemas de procesamiento distribuido de IA y big data.


Además, SK hynix pudo presentar los resultados de su colaboración con el Laboratorio Nacional de Los Álamos (LANL) para mejorar el rendimiento y reducir los requisitos energéticos de las aplicaciones que utilizan la física HPC. Denominado solución de memoria computacional basada en CXL (CMS), el producto tiene la capacidad de acelerar los accesos indirectos a la memoria, al tiempo que reduce significativamente el movimiento de datos. Estas mejoras tecnológicas también son aplicables a diversos dominios con uso intensivo de memoria, como la IA y el análisis de grafos.


Por último, el almacenamiento computacional basado en objetos (OCS) se presentó como parte de los esfuerzos de SK hynix por desarrollar un ecosistema analítico con múltiples socios. Minimiza el movimiento de datos entre los sistemas de aplicaciones analíticas y el almacenamiento, reduce el peso de la pila de software de almacenamiento y acelera la velocidad de análisis de datos. Y a través de una demostración, la empresa mostró cómo su tecnología de interfaz mejora las capacidades de procesamiento de datos en OCS.


Soluciones innovadoras para centros de datos y eSSD

SK hynix también mostró en la conferencia una gama de sus soluciones para centros de datos, incluido su módulo de memoria en línea doble registrada (RDIMM) DDR5. Equipado con 1b nm, la quinta generación de la tecnología de proceso de 10 nm, el RDIMM DDR5 alcanza velocidades de hasta 6.400 megabits por segundo (Mbps). También se presentaron DIMM DDR5 Multiplexer Combined Ranks (MCR), que alcanzan velocidades de hasta 8.800 Mbps. Con velocidades tan rápidas, estas soluciones DDR5 son adecuadas para la informática de IA en servidores de alto rendimiento.


Los visitantes del stand de SK hynix también pudieron ver sus últimos productos SSD empresariales (eSSD), incluidos los PS1010 E3.S y PS1030 basados en PCle Gen 5. En particular, la PS1030 ofrece la velocidad de lectura secuencial más rápida del sector, de 14.800 megabytes por segundo (MBps), lo que la hace ideal para big data y aprendizaje automático.



Compartiendo el potencial de las soluciones de memoria de SK hynix

Durante la conferencia, los empleados de SK hynix también realizaron presentaciones sobre la aplicación de las soluciones de memoria de la empresa para IA y HPC. El cuarto día de la conferencia, Yongkee Kwon, responsable técnico de hardware PIM en la división de tecnología avanzada de soluciones, ofreció una charla titulada "Solución rentable de inferencia de modelos de lenguaje amplio (LLM) utilizando AiM de SK hynix". Kwon desveló cómo el AiM de SK hynix, un dispositivo PIM especializado en LLM, puede mejorar significativamente el rendimiento y la eficiencia energética de la inferencia de LLM. Cuando se aplica al modelo de lenguaje Open Pre-trained Transformers (OPT) de Meta, una alternativa de código abierto al GPT-3 de Open AI, AiM puede alcanzar velocidades hasta diez veces superiores a las de los sistemas GPU más avanzados, al tiempo que ofrece costes y consumo energético más bajos.


El mismo día, el responsable técnico de software de sistemas en Memory Forest x&D Hokyoon Lee realizó una presentación titulada "CXL-based Memory Disaggregation for HPC and AI Workloads". Niagara de SK hynix aborda el problema de la memoria varada (o memoria no utilizada en cada servidor que nunca puede ser utilizada por otros servidores) con su función de memoria elástica. Además, la función de compartición de memoria de Niagara ofrece una solución para el intenso tráfico de red en la informática distribuida convencional. En la sesión, los ponentes demostraron la eficacia de la memoria compartida durante una simulación real con el marco de IA distribuida Ray que se utiliza en ChatGPT.


Un día después, el Director y Jefe Técnico de SOLAB en Memory Forest x&D Jongryool Kim presentó "Aceleración del análisis de datos mediante el almacenamiento computacional basado en objetos en una HPC". Presentando la colaboración de SK hynix con LANL en la investigación de tecnologías de almacenamiento computacional, Kim propuso el almacenamiento computacional basado en objetos (OCS) como nueva plataforma de almacenamiento computacional para el análisis de datos en HPC. Gracias a su gran escalabilidad y a sus características de detección de datos, OCS puede realizar análisis de forma independiente sin ayuda de los nodos de cálculo, lo que pone de manifiesto su potencial como futuro del almacenamiento informático en HPC.


Del mismo modo, SK hynix continuará desarrollando soluciones que permitan el avance de la IA y la HPC como proveedor de memoria de IA líder a nivel mundial.


Fuente: SK hynix


1 visualización0 comentarios
Aplus_MARS_2107_Eng(1).png
bottom of page