El revuelo que se ha levantado por el anuncio del modelo R1 de la china DeepSeek está haciendo mucho, incluida una caída del 18 % de las acciones de NVIDIA durante la sesión de bolsa de ayer, pero hoy ya se está recuperando. Es parte de la forma en que tienen de aprovecharse los especuladores de un problema que es real, pero menos preocupante para NVIDIA a corto plazo. Incluso Trump ha mencionado el hecho refiriéndose a ello como un serio toque de atención a las tecnológicas estadounidenses.
Voy a hacer un resumen rápido como el que he hecho en los comentarios de Disqus para entender mejor la situación y por qué no va a afectar tanto a NVIDIA a corto plazo. Los grandes modelos de lenguaje (LLM) que dan vida a las inteligencias artificiales generativas (IAG) actuales tienen dos etapas: entrenamiento y ejecución (inferencia). Lo primero necesita grandes cantidades de VRAM en la aceleradora, mientras que lo segundo necesita mucha menos.
Como dijo Pat Gelsinger, y cualquiera del sector, las aceleradoras de NVIDIA son excelentes para entrenamiento porque son las que ofrecen mayor potencia de procesamiento con grandes cantidades de memoria. Pero cuestan mucho más que otras soluciones de AMD, Intel, Cerebras, Tenstorrent y otras compañías del sector de los procesadores para IA. La Intel de Gelsinger quería competir en la parte de inferencia, porque el entrenamiento sería una pequeña parte del sector a futuro.
Ahora mismo el sector está (o estaba) estancado en la parte de entrenamiento por el alto coste que supone (o suponía), por lo que las aceleradoras de NVIDIA se van a seguir vendiendo en grandes cantidades. Hay infinidad de empresas que quieren acceder a unas miles de sus aceleradoras para entrenar sus propias IAG. El problema está en que DeepSeek asegura haber entrenado su IAG con un coste inferior a los 6 millones de dólares, mientras que a OpenAI le costó un estimado de 600 M$.
De la noche a la mañana DeepSeek va a permitir que infinidad de empresas jóvenes, con un pequeño capital, puedan crear también sus IAG porque DeepSeek ha hecho gratuito el uso de su modelo R1. La licencia MIT es amplia y permite el uso comercial de lo publicado por DeepSeek, así que es un torpedo a la línea de flotación de OpenAI o xAI que esperaban ganar dinero con un producto bueno y de código cerrado. Ahora hay uno de código abierto de precisión similar al modelo o1 de OpenAI, y va a haber una miríada de nuevas IAG desarrolladas con poca inversión compitiendo en el sector.
Van a tener que innovar mucho para destacar, pero también abre la puerta a su uso en las IAG para el sector público: sanidad, Hacienda, desarrollo urbanístico, etc. IAG específicas para cada sector desarrolladas por empresas jóvenes que podrán aprovecharse de lo desarrollado por DeepSeek. El problema será mantener la innovación, porque es un sector que está avanzando mucho y muy rápido, aunque OpenAI pisó el freno el año pasado para perfeccionar lo que ya tenía.
Así que es de prever que la demanda de las aceleradoras de NVIDIA se mantenga un tiempo, pero probablemente termine cayendo. Llega un momento en que por meter más aceleradoras no vas a conseguir una precisión sustancialmente mayor para el coste que tiene, o al menos con lo desarrollado actualmente. Pasar de 10 000 aceleradoras a 100 000 aceleradoras para entrenamiento no tiene mucho sentido, y menos aún ahora que con DeepSeek se necesitan 1000 aceleradoras o menos para entrenar una IAG avanzada.
Que NVIDIA siga vendiendo cientos de miles de aceleradoras es más bien improbable a medio plazo, salvo, claro está, que haya una mejora cuantitiva en la precisión de las IAG de OpenAI, xAI o Google que justifique pagar mucho por tener más aceleradoras para entrenar. Eso puede ocurrir. El tema es que ahora mismo, con DeepSeek, el sector va a pasar de la fase de entrenamiento a la de ejecución, que al final es la que da dinero.
En esta fase el alto coste de las aceleradoras de NVIDIA las hace poco interesantes. Para hacer las inferencias se necesita poca memoria, la justa para guardar los pesos de la IAG a ejecutar —que son muchos aun así—, y poco más. Hay técnicas de cuantización para reducir aún más el uso de memoria en inferencias. Es por lo que los LLM de buena precisión se pueden ejecutar localmente en equipos simplemente con 16 GB o 32 GB de RAM, pero eso sería insuficiente para entrenar una IAG.
Amazon, Google, Intel, Tenstorrent, Cerebras o AMD, entre muchas otras, tienen procesadores que son mucho mejores en coste-rendimiento para inferencia. Si DeepSeek te da ya el modelo entrenado para ejecutarlo localmente, lo que necesita una compañía son aceleradoras que sean mejores en inferencia, no en entrenamiento. Así que puede que NVIDIA pierda ventas de sus aceleradoras para entrenamiento en el medio plazo, pero las opciones de aceleradoras para inferencia del resto de compañías debería despegar a no mucho tardar.
Todo esto le va a afectar a NVIDIA, de una forma u otra, con las tecnologías de IA actuales. Si hay un gran avance que pueda promover nuevamente la venta de más aceleradoras para entrenamiento, pues NVIDIA podría verse poco o nada perjudicada. Pero ahora mismo DeepSeek ha hecho pasar al sector a la fase de explotación de las IAG entrenadas, por lo que otras opciones son mucho más interesantes para las empresas jóvenes que se creen desde este momento, que me imagino que van a ser a cientos, incluso de gobiernos de medio mundo.
Vía: WCCFTech.