Nvidia presentará el 1 de septiembre las primeras tarjetas gráficas GeForce RTX 30, y los últimos rumores afirman que en realidad son filtraciones y que aportan las características (casi) completas de las GeForce RTX 3080 y GeForce RTX 3090. La información procede de Videocardz, por lo que hay una alta probabilidad de que la información sea buena, pero siempre hay que tomarlo con una buena dosis de escepticismo.
La GeForce RTX 3080 dispondría de 4352 núcleos CUDA funcionando a un turbo máximo de 1710 MHz, con 10 GB de GDDR6X a 19 Gb/s, lo que da un bus de 320 bits y un ancho de banda de 760 GB/s. Su consumo sería de 320 W.
La GeForce RTX 3090 dispondría de 5248 núcleos CUDA funcionando a un turbo máximo de 1695 MHz, con 24 GB de GDDR6X a 19.5 Gb/s, lo que da un bus de 384 bits y un ancho de banda de 936 GB/s. Su consumo sería de 350 W.
También se menciona una RTX 3070 con 8 GB de GDDR6X y un consumo de 220 W. Todas estarían producidas por TSMC a 7 nm, por lo que el consumo de estas tarjetas gráficas carece de sentido salvo que haya profundos cambios en la arquitectura. Llegaría en septiembre con HDMI 2.1 y DisplayPort 1.4a.
Eso de entrada ya sería algo raro. Con un 20 % más de sombreadores y 14 GB más de memoria la RTX 3090 consumiría apenas 30 W más, un 9 % más. También resulta extrañísimo que la diferencia de consumo entre la RTX 3070 y la RTX 3080 sea de nada menos que 100 W, por lo que ahí hay gato encerrado.
Una explicación podría ser que el chip TU102 incluya un núcleo CUDA distinto del resto de chips, y ahí sí podría ver claro que mantuviera los FP64 que incluyen los multiprocesadores de flujos de datos (SM) del chip de la A100 además de las unidades FP32 e INT32. También explicaría que el consumo estuviera más en línea con la A100 mientras la RTX 3070, sin esos FP64, se mantuviera más en la línea del rendimiento de las Turing. La otra loca hipótesis es que los CUDA fueran ahora de dos FP32 y dos INT32 cada uno, en lugar de uno y uno, en una especie de núcleos CUDA dobles. Es un poco descabellado, pero también explicaría la diferencia de consumo, pero avanzaría una arquitectura Ampère de primera y otra Ampère de segunda —como ocurre con la Turing de las RTX 20 y la de las RTX 16—.
Si fuera simplemente la misma arquitectura algo optimizada de Turing, el rendimiento no sorprendería en absoluto. Por eso debe de haber cambios más profundos en la arquitectura Ampère si la información de Videocardz es cierta.
Rendimiento tarjetas gráficas
Vía: Videocardz.