OpenAI revolucionó hace dos años el sector de la inteligencia artificial con su GPT 3.5 con el que funcionó en sus primeros compases ChatGPT, y tras unos meses de centrarse en GPT 4 llegó el momento de ver cómo mejorar el entrenamiento de su IA. Así que en un principio estuvo valorando la producción de chips propios, para lo cual necesitaría cientos de miles de millones de dólares de inversión, por lo que según Reuters finalmente habría pivotado hacia el diseño de chips para ejecutar más rápido su gran modelo de lenguaje, con Broadcom y TSMC como socios.

Broadcom tiene bastante experiencia en el diseño de chips de todo tipo, incluidos procesadores, y no es un rival directo de OpenAI en el terreno de las IAG (inteligencia artificial generativa) así que parece una elección interesante. TSMC es la principal fundición del planeta, sin competidores cercanos en el terreno de características de sus litografías y productividad de las obleas, y a lo lejos están Intel y Samsung.

Con este procesador lo que haría OpenAI es por ahora seguir recurriendo a las aceleradoras de NVIDIA, y en menor medida de AMD, para el entrenamiento de la IAG que conforma ChatGPT. Esto son buenas noticias para la línea de negocio de NVIDIA, que ha visto dispararse sus ingresos en el último año debido a la altísima demanda que tienen sus aceleradoras. Cuestión aparte es que las empresas que compran las aceleradoras a NVIDIA estén rentabilizando la inversión, pero todo llegará. Es un plan a futuro, no a corto plazo. La propia OpenAI va a tener este año unas pérdidas de 5000 M$ con unos ingresos de solo 3700 M$.

Fuente: Reuters.