La memoria de alto ancho de banda (HBM) es la más buscada para acompañar a las GPU que se usan en las aceleradoras para inteligencia artificial como la H100 de NVIDIA. Que SK Hynix haya indicado que tiene vendida toda su producción de 2024 apunta a que es un negocio lucrativo que comparte con Samsung. Ahora la surcoreana ha anunciado el desarrollo de su HBM de mayor capacidad, una HBM3E de doce capas, lo cual habilitará chips de HBM3E de 36 GB de capacidad.
Los chips actuales de la compañía son de 24 GB u ocho capas, por lo que es un aumento más que notable que beneficiará al procesamiento de grandes cantidades de información como la necesaria en los grandes modelos de lenguajes en que se basan las IAG actuales.
La distancia entre las capas de memoria es de apenas siete micras, por lo que es la más corta de toda la industria de los semiconductores, sin espacios entre capas. También ha usado microcontactos más pequeños para conectar la señalización entre capas, y otros más grandes en zonas donde se necesite mayor dispersión térmica durante el funcionamiento de los chips.
Samsung indica que la producción en masa se realizará en este primer semestre del año, y podrían ir en la H200 que NVIDIA presentará en unas semanas.