La memoria de alto ancho de banda (HBM) llegó al mercado como un codesarrollo de SK Hynix y AMD, llegándola a usar en algunas Radeon. Pero las ventajas que tiene de latencia en ciertos escenarios no compensa respecto a usar una GDDR6 mucho más barata de producir y sobre todo de integrar en las tarjetas gráficas. Al menos en las orientadas a jugones, porque para el sector empresarial y centros de datos su demanda está en aumento gracias a las aceleradoras de NVIDIA. SK Hynix es la única que produce HBM3 actualmente, y ahora intenta hacer frente a la explosión de demanda que se avecina.
Esas aceleradoras tienen un uso excelente dentro de la inteligencia artificial, y su demanda es la que está tirando de las ventas de NVIDIA, aunque no solo ellas. Lo que buscan las compañías es tener aceleradoras cada vez con más memoria disponible para ejecutar grandes modelos de lenguaje (LLM), como los usados por ChatGPT o Bard, cada vez más grandes y complejos. Eso va a hacer que los servidores con tarjeta gráficas con HBM pasen de incluir de 320-640 GB, a unos 512-1024 GB.
Para cubrir esa demanda, SK Hynix ha anunciado HBM3 creada con doce capas de chips, lo cual hace que cada chip de este tipo de memoria tenga ahora 24 GB de capacidad. Se trata de un aumento de un cincuenta por ciento respecto al producto anterior, lo que llevará a NVIDIA, AMD y otras compañías con aceleradoras de IA a poder cubrir los crecientes requisitos de memoria de esos LLM. Estos chips tienen el mismo grosor que los de 16 GB y ocho capas gracias a una mejora en las vías a través de silicio que las conectan que permite reducir la separación y por tanto el grosor un 40 %.
Vía: TechPowerUp, AnandTech.