Intel presenta su propio SDK de compresión neuronal de conjuntos de texturas: texturas hasta 18 veces mÔs pequeñas
- Masterbitz
- hace 20 minutos
- 4 Min. de lectura
En GDC 2026, la ingeniera de grĆ”ficos de Intel, Marissa Dubois, subió al escenario paraĀ presentar la versiónĀ de Intel de la compresión de la textura neuronal, muy similar al NTC de NVIDIA en que ambas tecnologĆas son deterministas. La presentación fue un seguimiento del prototipo original de I + D mostrado en GDC 2025, con la noticia clave de que Intel ahora ha productificado esa investigación en un SDK independiente.

Texture Set Neural CompressionĀ (TSNC) es esencialmente una forma mĆ”s inteligente de almacenar texturas de juego. LosĀ formatos tradicionales de compresión de bloques de GPU (BC1 a BC7) utilizan reglas matemĆ”ticas fijas para reducir elĀ tamaƱo de laĀ textura, y aunque son de soporte rĆ”pido y universal, dejan un potencial de compresión significativo sobre la mesa. El TSNC adopta un enfoque fundamentalmente diferente: entrena una pequeƱa red neuronal utilizando el descenso de gradiente estocĆ”stico para aprender a codificar y decodificar las texturas especĆficas en un conjunto determinado. El resultado es una representaciónĀ compacta del espacio latente que un pequeƱo perceptrón multicapa puede reconstruir en tiempo de ejecución en el difuso original, normal, rugosidad, metales, oclusión ambiental y datos emisivos.

La idea clave es que un conjunto de texturas (todos los mapas PBR para un solo material) tiene una gran cantidad de estructura redundante a través de sus canales. TSNC explota esa estructura compartida de maneras que la compresión de bloques genéricos simplemente no puede.

PirĆ”mides de caracterĆsticas: Los dos niveles
En el corazón del esquema de compresión de TSNC se encuentra la pirĆ”mide caracterĆstica, un conjunto de cuatro texturas de espacio latente codificadas por BC1 dispuestas en diferentes configuraciones de resolución. Intel actualmente ofrece dos variantes con diferentes compensaciones de calidad/compresión:
La variante AĀ utiliza dos imĆ”genes latentes de resolución completa y dos de media resolución. Para las texturas de entrada 4K, esto significa dos imĆ”genes latentes 4K y dos 2K, que totalizan alrededor de 26.8 MB frente a los 256 MB originales de mapas de bits sin comprimir. Eso se traduce en unaĀ compresión de mĆ”sĀ de 9x, casi el doble de los 4.8x que obtendrĆas solo con la compresión estĆ”ndar de bloques BC. La pĆ©rdida de calidad perceptual, medida a travĆ©s de la herramienta de anĆ”lisis FLIP de NVIDIA, se encuentra en aproximadamente el 5%, que en la prĆ”ctica aparece como una pĆ©rdida de precisión menor en los mapas normales, pero poco mĆ”s.
La variante B es la opción agresiva. En cascada las imÔgenes latentes hasta 1/2, 1/4 y 1/8 de la resolución original, logrando mÔs de , mÔs del doble que la variante A. El golpe de calidad, sin embargo, es mÔs notable: los artefactos de bloque BC1 comienzan a aparecer en mapas normales y canales de AO/rugosidad, y FLIP registra un error perceptual de alrededor del 6-7%. Eso puede sonar pequeño en términos absolutos, pero Intel reconoce que es "suficiente para ser notable para un espectador". La variante B es, por lo tanto, probablemente la mÔs adecuada para materiales distantes o secundarios donde es menos probable que se examine la pérdida de calidad.
Desde el prototipo de I + D del año pasado, originalmente construido en PyTorch, todo el compresor de compresión neuronal Texture Set ha sido reescrito desde cero utilizando sombreadores de computadora Slang. AdemÔs, ya sea que un desarrollador esté trabajando en Unreal, un motor personalizado o ejecutando la descompresión en la CPU, el mismo código de descompresor puede apuntar al backend derecho.
En el lado de la GPU, Intel ahora es compatible con la API de vectores cooperativos DirectX 12 de Microsoft, aprovechando los núcleos de matriz XMX de Intel Arc (presentes tanto en GPU de la serie A como en la serie B) para la inferencia de matriz acelerada por hardware. Para el hardware sin soporte XMX, una reserva estÔndar de FMA (fundida multi-y adición) funciona tanto en CPU como en GPU no Intel.

Marissa Dubois de Intel desglosó cuatro estrategias de implementación diferentes, cada una con una compensación diferente entre el ahorro de espacio en disco y el uso de memoria:
En el momento de laĀ instalación: envĆe la compresión, descomprima localmente durante la instalación. Texturas en vivo sin comprimir en la unidad del usuario. Los ahorros son principalmente en el ancho de banda de distribución.
En el momento de la carga: las texturas permanecen comprimidas en el disco; la descompresión se produce en la VRAM a medida que se carga el juego. Reduce el tamaño de la instalación y la presión de VRAM durante la carga.
En el tiempo de transmisión, combinado con la transmisión de texturas, las texturas se descomprimen bajo demanda. Lo mejor de ambos mundos para disco y memoria, pero agrega carga de inferencia de tiempo de ejecución.
En el momento de laĀ muestra: las texturas permanecen comprimidas en VRAM permanentemente y decodifican por pĆxel en el sombreador. La opción mĆ”s agresiva para la reducción de VRAM, con coste de inferencia constante.
Los desarrolladores tendrƔn que elegir uno dependiendo de su caso de uso particular y el motor subyacente.
La inferencia de Intel se refirió a una computadora portÔtil Panther Lake utilizando grÔficos integrados B390 a una carga de trabajo completa del sombreador de computación de 1080p. Los resultados fueron:
Ruta FMA: 0.661 nanosegundos por pĆxel
Ruta de Ć”lgebra lineal XMX: 0.194 nanosegundos por pĆxel
Esa es una aceleraciónĀ de 3.4x de las matemĆ”ticas de matriz aceleradas por hardware, y el hecho de que estos nĆŗmeros se mantengan en grĆ”ficos integrados hace que el escenario de implementación de tiempo de muestra por pĆxel parezca mĆ”s viable de lo que podrĆa haber parecido. Para las GPU discretas, la sobrecarga serĆa aĆŗn menor. Intel planea lanzar una versión Alpha delĀ SDKĀ de compresión neuronal Texture SetĀ a finales deĀ este aƱo, seguido de una versión beta y una versión pĆŗblica, aunque esas fechas aĆŗn no estĆ”n escritas en piedra.
Fuente: Wccftech






.png)


