La filtración de DeepSeek R2 revela un impulso de 512 PetaFLOPS en la infraestructura nacional de aceleradores de IA
- Masterbitz
- 28 abr
- 2 Min. de lectura
DeepSeek, una empresa que arrasó en el mundo de la IA con su modelo R1, está preparando una nueva versión del modelo DeepSeek R2, supuestamente muy mejorada, según un conocido informador de IA @iruletheworldmo en X. Impulsado por los clústeres de chips Ascend 910B de Huawei, un posible Huawei Atlas 900 y el marco de entrenamiento distribuido interno de DeepSeek, R2 impulsa estos aceleradores hasta un impresionante 82% de utilización, lo que se traduce en 512 PetaFLOPS de rendimiento FP16, medio exaFLOP en potencia de cálculo. Según los datos del laboratorio de Huawei, esto equivale aproximadamente al 91% de lo que ofrecen los antiguos clusters A100 de NVIDIA, pero DeepSeek afirma que reduce los costes de formación por unidad en un notable 97,3%. Detrás de DeepSeek R2 hay un ecosistema de socios cuidadosamente cultivado. Tuowei Information, uno de los principales fabricantes de equipos originales de la familia Ascend, gestiona más de la mitad de los pedidos de hardware de supercomputación de DeepSeek, mientras que Sugon suministra bastidores de servidores refrigerados por líquido capaces de gestionar hasta 40 kW por unidad. Para mantener bajo control el consumo de energía, los transceptores de silicio fotónico de Innolight ahorran otro 35% en comparación con las soluciones tradicionales.

Comentarios