top of page
IG.png

Miles de GPU NVIDIA Grace Blackwell ya están disponibles en CoreWeave

  • Foto del escritor: Masterbitz
    Masterbitz
  • 16 abr
  • 4 Min. de lectura

CoreWeave se ha convertido hoy en uno de los primeros proveedores de cloud computing en poner a disposición de sus clientes los sistemas NVIDIA GB200 NVL72 a gran escala, y las empresas de IA Cohere, IBM y Mistral AI ya los están utilizando para entrenar e implantar modelos y aplicaciones de IA de última generación. CoreWeave, el primer proveedor de cloud computing que ha generalizado el uso de NVIDIA Grace Blackwell, ya ha obtenido resultados increíbles en las pruebas MLPerf con NVIDIA GB200 NVL72, una potente plataforma de cálculo acelerado a escala de rack diseñada para el razonamiento y los agentes de IA. Ahora, los clientes de CoreWeave tienen acceso a miles de GPU Blackwell de NVIDIA.


«Trabajamos en estrecha colaboración con NVIDIA para ofrecer rápidamente a los clientes las soluciones más recientes y potentes para entrenar modelos de IA y servir a la inferencia», afirma Mike Intrator, CEO de CoreWeave. «Con los nuevos sistemas Grace Blackwell a escala de rack en la mano, muchos de nuestros clientes serán los primeros en ver los beneficios y el rendimiento de los innovadores de IA operando a escala.»


La escalada para los clientes de proveedores de cloud como CoreWeave ya está en marcha. Los sistemas basados en NVIDIA Grace Blackwell están en plena producción, transformando los centros de datos en la nube en fábricas de IA que fabrican inteligencia a escala y convierten los datos brutos en información en tiempo real con rapidez, precisión y eficiencia.


Las principales compañías de IA de todo el mundo ya están poniendo las capacidades de GB200 NVL72 al servicio de las aplicaciones de IA, la IA agéntica y el desarrollo de modelos de vanguardia.


Agentes de IA personalizados

Cohere está utilizando sus Grace Blackwell Superchips para ayudar a desarrollar aplicaciones empresariales seguras de IA basadas en técnicas punteras de investigación y desarrollo de modelos. Su plataforma de IA empresarial, North, permite a los equipos crear agentes de IA personalizados para automatizar de forma segura los flujos de trabajo de la empresa, obtener información en tiempo real y mucho más.


Con NVIDIA GB200 NVL72 en CoreWeave, Cohere ya experimenta hasta 3 veces más rendimiento en el entrenamiento de modelos de 100.000 millones de parámetros en comparación con las GPU NVIDIA Hopper de la generación anterior, incluso sin las optimizaciones específicas de Blackwell.


Con nuevas optimizaciones que aprovechan la gran memoria unificada del GB200 NVL72, la precisión FP4 y un dominio NVIDIA NVLink de 72 GPU -donde cada GPU está conectada para operar de forma concertada-, Cohere está consiguiendo un rendimiento mucho mayor con un tiempo más corto para la primera y las siguientes tokens para una inferencia más eficaz y rentable.


«Autumn Moulder, vicepresidente de ingeniería de Cohere, afirma: «Gracias al acceso a algunos de los primeros sistemas GB200 NVL72 de NVIDIA en la nube, estamos muy satisfechos con la facilidad con la que nuestras cargas de trabajo se trasladan a la arquitectura Grace Blackwell de NVIDIA. «Esto proporciona una increíble eficiencia de rendimiento en toda nuestra pila, desde nuestra aplicación North integrada verticalmente que se ejecuta en una sola GPU Blackwell hasta el escalado de trabajos de formación en miles de ellas. Estamos deseando alcanzar pronto un rendimiento aún mayor con optimizaciones adicionales.»


Modelos de IA para empresas

IBM está utilizando una de las primeras implantaciones de sistemas GB200 NVL72 de NVIDIA, escalable a miles de GPU Blackwell en CoreWeave, para entrenar su nueva generación de modelos Granite, una serie de modelos de IA de código abierto preparados para la empresa. Los modelos Granite ofrecen un rendimiento de última generación al tiempo que maximizan la seguridad, la velocidad y la rentabilidad. La familia de modelos Granite cuenta con el apoyo de un sólido ecosistema de socios que incluye empresas líderes de software que integran grandes modelos lingüísticos en sus tecnologías.


Los modelos Granite son la base de soluciones como IBM watsonx Orchestrate, que permite a las empresas crear e implantar potentes agentes de IA que automatizan y aceleran los flujos de trabajo en toda la empresa.


La implementación de NVIDIA GB200 NVL72 de CoreWeave para IBM también aprovecha IBM Storage Scale System, que ofrece un almacenamiento excepcional de alto rendimiento para la IA. Los clientes de CoreWeave pueden acceder a la plataforma IBM Storage dentro de los entornos dedicados de CoreWeave y la plataforma de IA en la nube.


«Nos entusiasma ver la aceleración que NVIDIA GB200 NVL72 puede aportar al entrenamiento de nuestra familia de modelos Granite», afirma Sriram Raghavan, vicepresidente de IA en IBM Research. «Esta colaboración con CoreWeave aumentará las capacidades de IBM para ayudar a construir modelos avanzados, de alto rendimiento y rentables para impulsar aplicaciones de IA empresariales y agénticas con IBM watsonx.»


Recursos informáticos a escala

Mistral AI está recibiendo sus primeras mil GPU Blackwell para construir la próxima generación de modelos de IA de código abierto.


Mistral AI, líder en IA de código abierto con sede en París, está utilizando la infraestructura de CoreWeave, ahora equipada con GB200 NVL72, para acelerar el desarrollo de sus modelos de lenguaje. Con modelos como Mistral Large, que ofrece grandes capacidades de razonamiento, Mistral necesita recursos informáticos rápidos a escala.


Para entrenar e implantar estos modelos con eficacia, Mistral AI necesita un proveedor en la nube que ofrezca clusters de GPU grandes y de alto rendimiento con redes InfiniBand Quantum de NVIDIA y una gestión fiable de la infraestructura. La experiencia de CoreWeave en la puesta a punto de GPU NVIDIA a gran escala con la máxima fiabilidad y resistencia del sector a través de herramientas como CoreWeave Mission Control cumplía estos requisitos.


«Thimothee Lacroix, cofundador y director tecnológico de Mistral AI, afirma: «Nada más sacarlo de la caja y sin necesidad de realizar ninguna optimización adicional, vimos que el rendimiento se multiplicaba por dos en el entrenamiento de modelos densos. «Lo emocionante de NVIDIA GB200 NVL72 son las nuevas posibilidades que abre para el desarrollo y la inferencia de modelos».


Un número creciente de instancias de Blackwell

Además de las soluciones a largo plazo para clientes, CoreWeave ofrece instancias con NVIDIA NVLink a escala de rack a través de 72 GPU NVIDIA Blackwell y 36 CPU NVIDIA Grace, escalables hasta 110.000 GPU con redes InfiniBand NVIDIA Quantum-2.


Estas instancias, aceleradas por la plataforma de cálculo acelerado NVIDIA GB200 NVL72 a escala de rack, proporcionan la escala y el rendimiento necesarios para construir e implantar la próxima generación de modelos y agentes de razonamiento de IA.


Fuente: NVIDIA

Comments


Aplus_MARS_2107_Eng(1).png
undefined - Imgur(1).jpg

Siguenos

  • Facebook
  • Twitter
  • YouTube
  • Instagram
gaming

© 2016 Derechos Reservados a MasterbitzReviewHN

bottom of page