Hay algunos rumores que surgen y al final toca hablar de ellos porque me dedico a ello. La habitual salsa rosa tecnológica que nos mantiene tan entretenidos a los blogueros y a los internautas en general. Pero hay que cogerlos siempre con una buena dosis de escepticismo, y sobre todo cuando más que rumores son chismorreos, elucubraciones de varios rumorólogos hablando entre ellos tras sacar sus bolas de cristal para pronosticar el futuro de las tarjetas gráficas de NVIDIA y AMD. Algunas veces aciertan, otras fallan estrepitosamente.
He escuchado varias veces en los últimos días los chismes de que la próxima generación de AMD y NVIDIA consumirán cifras de locura. Hasta 600 W he llegado a leer, lo cual es una barbaridad. Si hay algo de lo que no se puede escapar es de que la energía no se crea ni se destruye, se transforma, y todo consumo realizado por una tarjeta gráfica se transforma en calor que hay que refrigerar.
Aquí también es conveniente recalcar la diferencia entre potencia de diseño térmico (TDP) y consumo. Desafortunadamente ambos se miden en vatios y por tanto siempre hay tendencia a soltar rumores extraños, porque una tarjeta gráfica que consuma 400 W no tiene por qué necesitar una refrigeración de 400 W de TDP. Puede ser más o puede ser menos; generalmente el TDP se da respecto al producto funcionando a la frecuencia base, como hace Intel. Cuando los fabricantes de tarjetas gráficas ya se refieren claramente a consumo, hay rumorólogos que siguen hablando de TDP como si fuera lo mismo, como en los siguientes tuits.
¿Os imagináis una refrigeración de 500 W de TDP para un procesador de sobremesa? Pues ahora ponédselo a una tarjeta gráfica según lo que dice el tuit de la izquierda. Ese se refiere a la supuesta arquitectura Lovelace de la próxima generación de NVIDIA. Al menos en el de la derecha, referente a la arquitectura RDNA 3, dicen 500 W y ahí por defecto se podría pensar en consumo. O sea, la arquitectura más eficiente que hay ahora mismo, RDNA 2, pasaría a consumir más con el paso a los 5 nm de RDNA 3. De 300 W de la RX 6900 XT a 500 W. Eso teniendo en cuenta que AMD ha prometido más mejoras en el rendimiento por vatio en RDNA 3, pero que podrían ser aprovechadas para meter más transistores y hacerla mucho más potente.
Con estos consumos que están diciendo lo normal es que incluso el diseño HOF de Galax fuera lo estándar y que en algunos casos se quedara corto. Por no mencionar que necesitarían cuatro conectores PCIe de ocho pines para alimentar a semejantes mamotretos. Hay que tener en cuenta que las tarjetas gráficas tienen picos de consumo que van desde algo por encima a muy por encima del consumo máximo normal. En AMD históricamente ha sido peor, y sigue siéndolo, y se puede ir 50-100 W por encima, incluso más. En el caso de NVIDIA los picos suelen ser más comedidos pero existen. Aun así eso hay que preverlo debidamente en el sistema de alimentación.
No digo que AMD y NVIDIA no se vayan a lanzar a lanzar tarjetas gráficas de 500 W frente a los 300-350 W que tiene ahora mismo, pero se me hace extrañísimo. Salvo, claro está, que realmente quieran iniciar la era del juego a 8K. Ya dije en su momento que NVIDIA se centraría con Ampère en publicitar el juego a 8K, aunque la realidad le ha dado en la cara y no es tan fácil jugar en la mayoría de juegos —y menos sin DLSS—. En la siguiente generación, con consumos de 500 W, que serían de dos a tres RTX 3090 o RX 6900 XT en una sola tarjeta, jugar a 8K sería totalmente factible. Otra cosa es que, en un momento en el que casi no hay monitores a 4K y 144 Hz en el mercado y aún menos gente que juegue a esa resolución y tasa de fotogramas, sea adecuado pensar en los 8K.
Tomaría todos estos rumores con una fortísima dosis de escepticismo porque al final tampoco tengo claro si los rumorólogos tienen claro de lo que están hablando. Muchas veces han demostrado que no la tienen. Y mirando al futuro, a cuatro o cinco años vista, me imagino que lo estándar en alimentación de tarjetas gráficas será algo así:
Vía: Videcardz.