Corsair de d-Matrix permite la inferencia de inteligencia artificial sin GPU
Masterbitz
20 nov 2024
4 Min. de lectura
d-Matrix ha presentado Corsair, un paradigma de computación completamente nuevo diseñado desde cero para la próxima era de la inferencia de IA en los centros de datos modernos. Corsair aprovecha la innovadora arquitectura Digital In-Memory Compute (DIMC) de d-Matrix, pionera en el sector, para acelerar las cargas de trabajo de inferencia de IA con un rendimiento en tiempo real líder en el sector, eficiencia energética y ahorro de costes en comparación con las GPU y otras alternativas.
La aparición de agentes de razonamiento y generación de vídeo interactivo representa el siguiente nivel de capacidades de IA. Éstos aprovechan más potencia de cálculo de inferencia para permitir que los modelos «piensen» más y produzcan resultados de mayor calidad. Corsair es la solución ideal de computación de inferencia con la que las empresas pueden desbloquear nuevos niveles de automatización e inteligencia sin comprometer el rendimiento, el coste o la potencia.
«Vimos venir los transformadores y la IA generativa, y fundamos d-Matrix para abordar los retos de la inferencia en torno a la mayor oportunidad de computación de nuestro tiempo», dijo Sid Sheth, cofundador y CEO de d-Matrix. «La plataforma informática Corsair, la primera de su clase, aporta una generación de tokens rapidísima para aplicaciones de alta interactividad con múltiples usuarios, haciendo que la IA Genética sea comercialmente viable».
La firma de análisis Gartner prevé un aumento del 160 % en el consumo energético de los centros de datos en los próximos dos años, impulsado por la IA y la GenAI. Como resultado, Gartner estima que el 40% de los centros de datos de IA existentes estarán limitados operativamente por la disponibilidad de energía para 2027. El despliegue de modelos de IA a escala podría hacerlos rápidamente prohibitivos desde el punto de vista de los costes.
Primicias y avances industriales de d-Matrix
d-Matrix combina varias innovaciones mundiales en silicio, software, empaquetado de chiplets y tejidos de interconexión para acelerar la inferencia de IA.
La inferencia generativa está intrínsecamente ligada a la memoria. d-Matrix rompe esta barrera del ancho de banda de la memoria con una novedosa arquitectura DIMC que integra estrechamente la memoria y el cálculo. El escalado se consigue utilizando DMX Link para una conectividad de chip a chip de alta velocidad y bajo consumo energético en un paquete, y DMX Bridge para conectar paquetes entre dos tarjetas. d-Matrix es una de las primeras del sector en admitir de forma nativa formatos numéricos de coma flotante en bloque, ahora un estándar OCP llamado Micro-scaling (MX), para una mayor eficiencia de la inferencia. Estas innovaciones, pioneras en el sector, se integran a la perfección en la pila de software Aviator de d-Matrix, que ofrece a los desarrolladores de IA una experiencia de usuario y unas herramientas familiares.
Corsair se presenta en un formato de tarjeta PCIe Gen 5 de altura completa estándar del sector, con pares de tarjetas conectadas a través de tarjetas DMX Bridge. Cada tarjeta Corsair se alimenta de núcleos de cálculo DIMC con 2400 TFLOPs de cálculo máximo de 8 bits, 2 GB de memoria de rendimiento integrada y hasta 256 GB de memoria de capacidad fuera del chip. La arquitectura DIMC proporciona un ancho de banda de memoria ultraelevado de 150 TB/s, significativamente superior a HBM. Corsair ofrece hasta 10 veces más velocidad interactiva, 3 veces más rendimiento por coste total de propiedad (TCO) y 3 veces más eficiencia energética.
«d-Matrix está a la vanguardia de un cambio monumental en Gen AI como la primera compañía en abordar plenamente los puntos de dolor de la IA en la empresa», dijo Michael Stewart, socio gerente de M12, el fondo de riesgo de Microsoft. «Construida por un equipo de clase mundial e introduciendo avances que definen la categoría, la plataforma de computación de d-Matrix cambia radicalmente la capacidad de las empresas para acceder a la infraestructura para las operaciones de IA y les permite escalar gradualmente las operaciones sin las limitaciones de energía y las preocupaciones de latencia que han frenado la adopción de la IA por parte de las empresas. d-Matrix está democratizando el acceso al hardware necesario para impulsar la IA en un factor de forma estándar para hacer que Gen AI sea finalmente accesible para todos.»
Disponibilidad de las soluciones de inferencia Corsair de d-Matrix
Corsair se está probando a clientes de acceso temprano y estará ampliamente disponible en el segundo trimestre de 2025. d-Matrix se enorgullece de colaborar con fabricantes de equipos originales e integradores de sistemas para llevar al mercado soluciones basadas en Corsair.
«Estamos encantados de colaborar con d-Matrix en su solución de computación en memoria Corsair de ultra-alto ancho de banda, que está diseñada específicamente para la IA generativa, y acelerar la adopción de la computación de IA sostenible», dijo Vik Malyala, Vicepresidente Senior de Tecnología e IA de Supermicro. «Nuestros sistemas integrales de alto rendimiento con refrigeración líquida y por aire que incorporan Corsair son ideales para la computación de IA de siguiente nivel».
«La combinación de la tarjeta Corsair PCIe de d-Matrix con la arquitectura escalable líder en la industria de GigaIO SuperNODE crea una solución transformadora para las empresas que despliegan la inferencia de IA de próxima generación a escala», dijo Alan Benjamin, CEO de GigaIO. Nuestro servidor de nodo único admite 64 o más Corsairs, lo que proporciona una potencia de procesamiento masiva y una comunicación de baja latencia entre las tarjetas». El Corsair SuperNODE elimina las complejas configuraciones multinodo y simplifica el despliegue, permitiendo a las empresas adaptarse rápidamente a las cargas de trabajo de IA en evolución, al tiempo que mejora significativamente su TCO y eficiencia operativa.»
«Al integrar d-Matrix Corsair, Liqid permite una capacidad, flexibilidad y eficiencia inigualables, superando las limitaciones tradicionales para ofrecer un rendimiento de inferencia excepcional. En el panorama de la IA que avanza rápidamente, permitimos a los clientes satisfacer las estrictas demandas de inferencia con la solución de latencia ultrabaja de Corsair», dijo Sumit Puri, cofundador de Liqid.
Comments