top of page
IG.png

Micron lanza al mercado los «primeros» módulos SOCAMM2 de 256 GB del mundo, destinados al frenesí de la IA agencial.

  • Foto del escritor: Masterbitz
    Masterbitz
  • hace 2 horas
  • 2 Min. de lectura

El último avance de Micron en la industria de la memoria es el debut de los módulos de memoria SOCAMM2 más capaces, con capacidad líder y eficiencia energética.

El nuevo SOCAMM2 de Micron se centra en reducir los cuellos de botella con caché KV, lo que lleva a cargas de trabajo de menor latencia


Con la capa de "aplicaciones" de la IA, el cuello de botella de memoria está creciendo a medida que las cargas de trabajo continúan escalando, por lo que los fabricantes de DRAM han prestado especial atención a los avances que se realizan con HBM y otros productos de memoria específicos de IA. En el último anuncio de Micron, la firma ha establecido un "nuevo punto de referencia" con los módulos de memoria SOCAMM2, ya que aumentan la capacidad por módulo a 256 GB, marcando un salto masivo desde el umbral anterior de 192 GB. Según la compañía, SOCAMM2 se integrará en los equipos de infraestructura de IA de hoy en día y ayudará a abordar las limitaciones de memoria.


Los logros de Micron en la entrega de una capacidad de memoria masiva y ancho de banda utilizando menos potencia que la memoria de servidor tradicional con SOCAMM2 de 256GB están permitiendo la próxima generación de CPU de IA. - Ian Finder, Jefe de Producto, CPUs de Centros de Datos en NVIDIA


Con la última iteración de SOCAMM2, Micron ha aumentado la capacidad de un solo troquel monolítico LPDRAM a 32 GB. Con el modelo de 256 GB, se proporcionan 2 TB de LPDRAM por CPU de 8 canales, lo que permite a los servidores de IA procesar ventanas de contexto largo con facilidad. Micron también dice que con la nueva solución SOCAMM2, el TTFT ha aumentado en 2,3 veces para la inferencia de largo contexto, ayudando significativamente a complementar las cargas de trabajo agnéticas, donde las aplicaciones de CPU independientes son un enfoque clave.

SOCAMM2 es una solución desarrollada en cooperación con NVIDIA, y en una publicación anterior, discutimos cómo Vera Rubin será una de las primeras ofertas de infraestructura de IA en utilizar el nuevo estándar de memoria. En el mundo de la inteligencia artificial, la memoria se ha convertido en un activo significativo en las cargas de trabajo donde la latencia y el contexto son importantes, pero al mismo tiempo, SOCAMM2 es uno de los productos que ocuparía una parte decente del suministro de DRAM, probablemente comiendo asignaciones para productos de propósito general como GDDR7.


Micron dice que las muestras de 256GB SOCAMM2 ya se han enviado a los clientes, y que la solución estará en exhibición en el GTC 2026 de este año.


Fuente: Wccftech

Aplus_MARS_2107_Eng(1).png
undefined - Imgur(1).jpg

Siguenos

  • Facebook
  • Twitter
  • YouTube
  • Instagram
gaming

© 2016 Derechos Reservados a MasterbitzReviewHN

bottom of page