La aparición de Deepseek es una "gran oportunidad" para ellos, no una amenaza.
Open Source significa que el código fuente de software puede estar disponible gratuitamente en la web para modificar y redistribución. A diferencia de los competidores como Operai, el modelo de Deepseek es de código abierto.
R1 muestra que el crecimiento no estará dominado por una compañía: no hay hardware y 'foso' de hardware en el modelo de código abierto.
El modelo de inferencia R1 de código abierto de Deepseek, lanzado a fines del mes pasado, es comparable a la mejor tecnología de los Estados Unidos y ha logrado un rendimiento de vanguardia a bajo costo, sorprendiendo al mercado global.
Al igual que en los mercados de PC e Internet, la caída de los precios está ayudando a impulsar la adopción global. El mercado de IA está en una ruta de crecimiento a largo plazo similar.
Chip de inferencia 'Burst'
Al acelerar el ciclo de IA de la "fase de entrenamiento" a la "fase de inferencia", es probable que Deepseek aumente la adopción de la nueva tecnología de chip de inferencia.
La inferencia se refiere al acto de usar IA para tomar predicciones o decisiones basadas en nueva información, en lugar de la "fase de entrenamiento" de los modelos de construcción o capacitación.
La capacitación de IA se trata de construir una herramienta o algoritmo, y el razonamiento se trata de poner esa herramienta en uso práctico ".
El entrenamiento de IA requiere mucho cálculo, pero el razonamiento se puede hacer con chips menos potentes que están programados para realizar una gama estrecha de tareas.
Muchos en la industria creen que a medida que los clientes adoptan y construyen el modelo de código abierto de Deepseek, ven una creciente demanda de chips e informática de inferencia.
Deepseek ha demostrado que los modelos de código abierto más pequeños pueden ser entrenados para ser tan potentes, si no más potentes, que los modelos patentados grandes a una fracción del costo. Con el uso generalizado de pequeños modelos funcionales, catalizaron una era de razonamiento.
También señaló que la compañía ha visto recientemente una duplicación de interés de los clientes de todo el mundo para acelerar sus iniciativas de inferencia.
Ahora las empresas están cambiando de gastos desde grupos de capacitación hasta grupos de razonamiento. Solo necesitamos más y más potencia informática para escalar estos modelos para millones de usuarios.
A medida que crece la demanda general de IA, las empresas más pequeñas tendrán más espacio para crecer, y dado que el mundo necesitará más tokens (unidades de datos procesadas por modelos de IA), Nvidia no podrá suministrar suficientes chips para todos, por lo que eso nos da la oportunidad de vender más agresivamente al mercado.