Las autoridades francesas de competencia están investigando si NVIDIA ha incurrido en algún ilícito penal para conseguir su posición predominante en la computación en la nube. Mientras tanto, NVIDIA va a seguir desarrollando sus aceleradoras con los modelos que van a hacer uso de la HBM3 (memoria de alto ancho de banda) de segunda generación, la HBM3E, empezando por la anunciada GH200. Así lo ha indicado Micron en su presentación de resultados del segundo trimestre del año.
«La memoria HBM3E de Micron está actualmente siendo evaluada por NVIDIA para sus productos de computación, la cual se usará en soluciones para IA» a principios de 2024. Estos chips de memoria de Micron son de 24 GB basados en ocho pastillas de 24 Gb (3 GB) con una velocidad 9.2 Gb/s por pin, fabricados con el proceso de 1β nm de la compañía, lo cual lleva a que tenga una velocidad máxima de 1.2 TB/s por chip de 24 GB.
Vía: AnandTech.