Microsoft tiene una potente sección de servicios en la nube centrada en Azure. Desde hace unos años la orientación de las empresas es hacia la inteligencia, aunque haya sido este año cuando la locura se ha desatado. Principalmente se estaban desarrollando chips para inferencias de IA —por ejemplo, redes neuronales para detectar objetos en fotos—, pero al final son lo mismo que los grandes modelos de lenguaje (LLM) en que se basan las IA generativas. Por eso los nuevos chips desarrollados por Microsoft están orientados a AI, y llegan justo en el momento de mayor demanda de estos chips.
El primero es un procesador, el Cobalt 100, que incluye 128 núcleos de arquitectura ARM, y como el otro chip presentado, está producido por TSMC usando un proceso mejorado de 5 nm. Con este diseño la compañía promete un rendimiento un 40 % mejor frente a los procesadores ARM usados actualmente por la compañía para Azure.
Se ha basado en el subsistema de computación de Neoverse (Neoverse CSS) para acelerar el diseño y la optimización de los chips porque básicamente Arm lo proporciona todo preparado para diseñar el chip. Neoverse CSS incluye los núcleos ARM tipo Neoverse orientados a computación aunque personalizados por Microsoft, la conectividad externa, la interconexión interna, caché, controladores de memoria, etc.
El otro chip es el Maia 100, que es una unidad de procesamiento gráfico orientado a computación, y por tanto conforma aceleradoras de inteligencia artificial por el diseño interno de las unidades. Incluye 105 000 millones de transistores, por lo que es un chip bastante grandecito.
Microsoft ha diseñado un bastidor para este equipo así como un sistema de refrigeración líquida para enfriar los Maia 100. Cada aceleradora tiene acceso a una velocidad Ethernet agregada de 4.8 Tb/s que Microsoft ve necesaria para «permitir un mejor escalado y rendimiento de cargas de trabajo extremo a extremo». Ambos chips empezarán a funcionar con Copilot y Azure OpenAI.