• Masterbitz

El movimiento de NVIDIA de GTX a RTX habla a la creencia en el cambio revolucionario en gráficos


NVIDIA en su presentación imbuida de Gamescom finalmente le quitó la tapa a su esperada renovación de su línea GeForce, y hay más de un millar de incremento (y un cambio de consonante) en ello. En la sala Palladium en Colonia, Alemania (repleta de prensa y asistentes invitados por NVIDIA), Jensen Huang subió al escenario para presentar un video sobre los avances de la simulación gráfica que generó animaciones como Tron, la primera Guerra de las Galaxias. , el Tomb Raider original, Multi-Texturing en RIVA TNT, y pasó a través de efectos especiales en Hollywood ... Cada encarnación de los píxeles y triángulos a los que estamos acostumbrados.

Ya conocemos las exquisiteces jugosas: los tres modelos lanzados, cuándo y sus precios (con una caminata para arrancar en la tarjeta gráfica 2070, que ve su precio aumentado en $ 100 en comparación con la 1070 de la última generación. Conocemos la solución de refrigeración de las tarjetas oficiales de NVIDIA se divertirá, y cómo la compañía unirá esfuerzos con los desarrolladores de juegos para garantizar que el hardware extra en el que han invertido tiempo, dinero y un cambio de nombre dé sus frutos. Pero, ¿qué hay detrás de este cambio? ¿Qué nos trajo a este punto en el tiempo? ¿Qué impulsó el impresionante Sol Demo de la compañía?

Ha sido un largo camino para NVIDIA desde que su colaborador Turner Whitted trabajó en el trazado de rayos recursivo de múltiples rebotes comenzó en 1978. Jensen Huang dice que el desarrollo y la mejora de la GPU se ha movido diez veces más de lo exigido por la ley de Moore a CPU: 1000 veces cada diez años. Pero el trazado de rayos se espera, o se esperaba, que requiera Petaflops de potencia informática. Aún otro paso que tomaría unos 10 años para lograrlo.

NVIDIA, naturalmente, no quería nada de eso. Según Jensen Huang, eso significaba que la empresa tenía que lograr una mejora equivalente a 1000 prestaciones más, diez años antes. La respuesta a ese enigma del rendimiento es RTX, un hardware, software, SDK y push de biblioteca simultáneos, unidos en una sola plataforma. La representación híbrida RTX unifica rasterización y trazado de rayos, con una primera pasada de rasterización (altamente paralela) y una segunda pasada de rastreo de rayos que solo actúa sobre los píxeles renderizados, pero permite la materialización de efectos y reflejos y fuentes de luz que estarían fuera de la escena - y por lo tanto, prácticamente inexistente con las técnicas de renderizado de trazado de rayos. Ahora, los núcleos RT pueden trabajar en conjunto con las soluciones de procesamiento de rasterización para lograr tiempos de renderización razonables para las escenas trazadas con rayos que, según Jensen Huang, tomarían diez veces más para renderizarse en hardware basado en Pascal.

(El CEO de NVIDIA Jensen Huang dijo que para que los jugadores puedan lograr el trazado de rayos antes de que se agreguen los núcleos RT en la mezcla de diseño de silicio y arquitectura, tendrían que pagar $ 68,000 dólares por la DGX con cuatro tarjetas gráficas Tesla V100. incluso se ofreció a hacerlo en 3,000 pagos faciles de $ 19.95).

Turing lleva diez años en la fabricación, y Jensen Huang dice que esta arquitectura y sus núcleos RT son el mayor salto en computación gráfica para la compañía, y probablemente también se refería a la industria, desde CUDA. El emparejamiento de los tres motores de procesamiento nuevos o revisados ​​dentro de cada pieza de silicona de Turing provoca este salto. El Turing SM, que permite 14 TFLOPS y 14 TIPS (operaciones enteras) de FP concurrente y ejecución INT; los núcleos Tensor con sus 110 TFLOPs de FP16, 220 TFLOPS si INT8, y una duplicación de nuevo a 440 TFLOPS de rendimiento INT4; y el RT Core, con sus 10 Giga Rays / sec (que a Jensen Huang le encanta decir). A modo de comparación, el 1080 Ti podría lograr, en condiciones pico, 1.21 Giga Rays por segundo, casi 10 veces menos rendimiento.

Y el efecto general en el rendimiento es impresionante, al menos en los términos expuestos por Jensen Huang: un solo chip de Turing reemplaza a las 4 GPU 4 V100 que se encuentran dentro del DGX, y con tiempos de renderización reducidos de solo 45 ms frente al V100. ms para renderizar una escena rastreada por rayos. Pascal, por otro lado, tomaría 308 ms para renderizar la misma escena, en su versión de 1080 Ti no menos.

Un nuevo estándar de rendimiento Ray Tracing se está haciendo todo el tiempo dentro de 1 Turing Frame; esto sucede al mismo tiempo como parte del proceso de sombreado FP32: sin núcleos RT, la barra de trazado verde de Ray sería diez veces más grande. Ahora, puede hacerse completamente dentro del sombreado FP32, seguido por el sombreado INT. Y hay recursos suficientes para agregar en algunos procesos de DNN (Red Neuronal Profunda) para arrancar: NVIDIA busca generar píxeles diseñados artificialmente con su procesamiento DNN, esencialmente, los 110 TFLOPS con Tensor Cores, que en Turing rinden 10x 1080 El rendimiento equivalente a Ti se usará para completar algunos píxeles, fiel a la vida, como si realmente se hubieran renderizado. Quizás se encuentren algunas aplicaciones de Súper Resolución; esta podría ser una forma de aumentar la densidad de píxeles completando píxeles adicionales a una imagen.

Tal vez una de las cositas menos "sexys" del lanzamiento de la nueva generación de NVIDIA es una de las más reveladoras. El cambio de GTX a RTX habla de años de historia en los que se paga con respecto a, pero se deja atrás, sin política, para dar un paso completo hacia el trazado de rayos. Habla de dejar atrás años tras años de mejora de rasterización de píxeles en la búsqueda de lo que era solo teóricamente posible no hace mucho tiempo: rastreo de rayos en tiempo real a través de múltiples cuerpos basados ​​en la física.

El paso de GTX a RTX significa que NVIDIA está respaldando por completo la importancia de su plataforma RTX para las iteraciones de productos y el futuro de la computación gráfica. Se manifiesta en una tubería reimaginada para la producción de gráficos, donde soluciones costosas e intrincadas pero finalmente falsas dieron paso a mejoras constantes en la calidad de los gráficos. Y habla de un sueño donde los AI pueden escribir software ellos mismos (y tal vez ellos mismos), y la imagen perfecta de Ground Truth se genera a través de DLSS en redes de aprendizaje profundo lejos de su poder de cómputo local, enviado a su manera, y vemos verdadera prestación asistida por la nube - de tipo. Es audaz, y ha sido estampada en la visión de NVIDIA, tanto profesional como de jugador. Estaremos aquí para ver hacia dónde conduce, con gráficos reales trazados por rayos, por supuesto.

Fuentes: Trazado de rayos e iluminación global, Blogs de NVIDIA, Incrustación de imágenes


8 vistas
  • Facebook
  • Twitter
  • YouTube
  • Instagram

© 2016 Derechos Reservados a Masterbitz Review