top of page
IG.png

AMD cree que las CPU EPYC y las GPU Instinct acelerarán los avances en IA

  • Foto del escritor: Masterbitz
    Masterbitz
  • 29 ene
  • 5 Min. de lectura

Si buscas un uso innovador de la tecnología de IA, mira hacia la nube. Gartner informa de que «el 73% de los encuestados en la Encuesta de Gartner a CIO y ejecutivos tecnológicos de 2024 han aumentado la financiación para la IA». E IDC dice que la IA: «tendrá un impacto económico global acumulado de 19,9 billones de dólares hasta 2030». Pero los usuarios finales no están ejecutando la mayoría de esas cargas de trabajo de IA en su propio hardware. En su lugar, están confiando en gran medida en los proveedores de servicios en la nube y las grandes empresas de tecnología para proporcionar la infraestructura para sus esfuerzos de IA. Este enfoque tiene sentido porque la mayoría de las organizaciones ya dependen en gran medida de la nube. Según O'Reilly, más del 90% de las empresas utilizan servicios de nube pública. Y no están trasladando sólo unas pocas cargas de trabajo a la nube. Ese mismo informe muestra un crecimiento del 175% en el interés por la nube nativa, lo que indica que las empresas están apostando fuerte por la nube.



Como resultado de esta demanda de infraestructura para impulsar las iniciativas de IA, los proveedores de servicios en la nube se están viendo en la necesidad de ampliar rápidamente sus centros de datos. IDC predice: «la creciente demanda de cargas de trabajo de IA dará lugar a un aumento significativo de la capacidad de los centros de datos, el consumo de energía y las emisiones de carbono, y se prevé que la capacidad de los centros de datos de IA tenga una tasa de crecimiento anual compuesta (CAGR) del 40,5% hasta 2027.» Aunque este aumento crea enormes oportunidades para los proveedores de servicios, también introduce algunos retos. Proporcionar la potencia de cálculo necesaria para apoyar las iniciativas de IA a escala, de forma fiable y rentable es difícil. Muchos proveedores han descubierto que la implementación de CPU AMD EPYC y GPU Instinct puede ayudarles a superar estos retos. He aquí un rápido vistazo a tres proveedores de servicios que están utilizando chips AMD para acelerar los avances en IA.


Rendimiento flexible y rentable en Microsoft Azure

Microsoft ofrece una amplia línea de máquinas virtuales (VM) Azure potenciadas por AMD como parte de su línea de servicios de computación en nube. Han adaptado las especificaciones de estos servicios para satisfacer una amplia variedad de casos de uso diferentes, que van desde el propósito general a la memoria intensiva y el almacenamiento optimizado a la computación de alto rendimiento y la computación confidencial a la IA.


Los clientes de Azure aprecian la rentabilidad de estas máquinas virtuales. Por ejemplo, Henrik Klemola, Director, Cloud COE en Epicor: «hemos estado utilizando máquinas virtuales Azure con el procesador AMD EPYC durante los últimos dos años para ejecutar una serie de aplicaciones críticas para el negocio como parte de la cartera de soluciones de Epicor. Hemos estado muy satisfechos con el rendimiento constante y la atractiva relación calidad-precio que estas máquinas virtuales han sido capaces de ofrecer. Estamos deseando seguir beneficiándonos de la innovación que Microsoft Azure pondrá a nuestra disposición, incluyendo la posibilidad de acceder a servicios Azure rentables que se basan en los últimos procesadores AMD EPYC.»


Esas nuevas innovaciones incluyen aceleradores que soportan IA y otras cargas de trabajo intensivas, como aplicaciones de análisis financiero, diseño e ingeniería. Microsoft explica: «las VM tradicionales basadas solo en CPU a menudo tienen dificultades para seguir el ritmo de estas aplicaciones, frustrando a los usuarios y reduciendo la productividad, pero hasta ahora, desplegar entornos virtuales locales acelerados por GPU ha sido demasiado costoso.» Al ofrecer los últimos avances de AMD en la nube, Microsoft proporciona a sus clientes el rendimiento que necesitan a un precio asequible».


Crecimiento escalable en Oracle Cloud Infrastructure

Otro importante proveedor de nube que utiliza AMD para ampliar los límites de lo que es posible en IA es Oracle. En septiembre, Oracle Cloud Infrastructure (OCI) eligió los aceleradores AMD Instinct para alimentar su nueva instancia OCI Compute Supercluster. Oracle explica que estas instancias permiten a los clientes: «ejecutar las cargas de trabajo de IA más exigentes más rápido, incluyendo IA generativa, visión por ordenador y análisis predictivo». Permiten el despliegue de clústeres de escalabilidad masiva para el entrenamiento de modelos de IA a gran escala.


Esa escalabilidad ha sido muy atractiva para Uber, que comenzó a migrar a OCI Compute con AMD y la infraestructura OCI AI en 2023. «A medida que continuamos creciendo y entrando en nuevos mercados, necesitamos la flexibilidad para aprovechar una amplia gama de servicios en la nube para ayudar a garantizar que estamos proporcionando la mejor experiencia posible al cliente», dice Kamran Zargahi, Director Senior de Estrategia Tecnológica e Ingeniería en la Nube de Uber. «Colaborar con Oracle nos ha permitido innovar más rápido a la vez que gestionamos nuestros costes de infraestructura. Con OCI, nuestros productos pueden ejecutarse en la mejor infraestructura de su clase que está diseñada para soportar entornos multi-nube y puede escalar para soportar un crecimiento rentable.»


Aprendizaje profundo de próxima generación en Meta

Meta también está invirtiendo fuertemente en centros de datos en la nube para respaldar los servicios de IA que ofrece a los usuarios. Más de tres mil millones de personas interactúan cada día con servicios de Meta como Facebook, Instagram y WhatsApp. Y Meta está trabajando para integrar rápidamente la IA generativa en todas esas aplicaciones. Para lograr ese objetivo, Meta ha invertido mucho en tecnología AMD. De hecho, ha desplegado más de 1,5 millones de CPU AMD EPYC en sus servidores de todo el mundo. Las GPU AMD Instinct también han sido parte de su éxito. Kevin Salvadori, vicepresidente de infraestructura e ingeniería de Meta, explica: «Todo el tráfico en directo de Meta se ha servido utilizando exclusivamente MI300X debido a su gran capacidad de memoria y a la ventaja del coste total de propiedad».


Además, los chips de AMD desempeñan un papel central en la visión de hardware abierto de Meta. Meta señala en una entrada de blog: «Escalar la IA a esta velocidad requiere soluciones de hardware abierto. El desarrollo de nuevas arquitecturas, tejidos de red y diseños de sistemas es más eficiente e impactante cuando podemos construirlo sobre principios de apertura. Al invertir en hardware abierto, liberamos todo el potencial de la IA e impulsamos la innovación continua en este campo.»


Grand Teton, la plataforma abierta de IA de nueva generación de Meta, es compatible con la plataforma AMD Instinct MI300X. Esto permite a Grand Teton ejecutar los modelos de recomendación de aprendizaje profundo de Meta, la comprensión de contenidos y otras cargas de trabajo intensivas en memoria.


Amplíe los límites de lo posible

Si tu equipo está interesado en ampliar los límites de lo que es posible con las innovaciones actuales de IA, prueba una instancia en la nube basada en AMD Instinct de uno de los proveedores de nube pública. O incorpora las GPUs AMD Instinct a tu propia infraestructura. Proporcionan el rendimiento, el bajo coste total de propiedad y la facilidad de adopción para potenciar la IA.


Fuente: Blog de la comunidad AMD

Comments


Aplus_MARS_2107_Eng(1).png
gaming2

Siguenos

  • Facebook
  • Twitter
  • YouTube
  • Instagram
gaming

© 2016 Derechos Reservados a MasterbitzReviewHN

bottom of page