Después de que se espera que se lanzara en mayo, Deepseek R2 todavía no está aquí.
Deepseek R1 se volvió viral a principios de 2025, y había una expectativa de que R2 traería mejoras importantes e incluso costos aún más bajos. Deepseek R1 sorprendió al mundo y se derrumbó en el mercado de valores de los Estados Unidos porque su rendimiento fue comparable a ChatGPT O1, pero period mucho más barato entrenar y correr. Deepseek no tenía acceso al mismo {hardware} que las empresas de IA de EE. UU., Como los chips Nvidia más nuevos. En cambio, usó cualquier chips de IA que pudiera comprar, legalmente o a través del mercado negro, y se basó en las optimizaciones de software program para capacitar a un modelo de razonamiento tan poderoso como lo que ChatGPT podría ofrecer.
En ese momento, señalé que aún se necesitaría {hardware} de alta gama para entrenar modelos de IA fronterizos, incluso si otras empresas de IA adoptaran las optimizaciones de software program de Deepseek. Estas compañías también necesitarían invertir mucho en centros de datos para garantizar que sus servicios puedan atender a millones de usuarios sin problemas.
Resulta que el acceso al {hardware} avanzado es una razón por la cual Deepseek no puede enviar el modelo de razonamiento R2.
Un nuevo informe de La información (a través de Reuters) Cube que Deepseek aún no ha decidido cuándo lanzar el modelo Deepseek R2.
Según los informes, el CEO Liang Wenfeng no está satisfecho con el rendimiento de lo que debería ser el mejor modelo de razonamiento de la empresa. Los ingenieros de Deepseek todavía están trabajando en el modelo, esperando que la aprobación del CEO lo libere.
El problema con la línea de tiempo R2 de Deepseek se cut back al {hardware}, lo cual es irónico. A principios de este año, Deepseek promocionó sus innovaciones de software program que le permitieron entrenar e implementar un modelo de razonamiento tan bueno como la mejor versión de ChatGPT en ese momento.
Resulta que el acceso a suficientes chips de IA de compañías como Nvidia todavía es necesario para implementar un mejor modelo. La administración Trump prohibió a ciertas fichas de Nvidia de ser vendidas a China, el tipo de vida profunda podría haber usado para capacitar a los modelos de IA.
La mayoría de los clientes de la nube que usan Deepseek R1 dependen de los chips NVIDIA H20 comprados antes de la prohibición. Estos chips H20 ya no están disponibles para ellos y actualmente son los únicos chips Nvidia AI permitidos para la exportación a China.
Un aumento en la demanda podría abrumar a los proveedores de la nube chinos que trabajan con Deepseek, ahora que confían en estos chips de servidor NVIDIA. Eso podría afectar la experiencia de Deepseek.
Como hemos visto a lo largo de los años con ChatGPT, no es suficiente para que un modelo de IA avance y ofrezca mejores características que sus predecesores. Por ejemplo, OpenAI también necesita la infraestructura para proporcionar un acceso confiable a CHATGPT. Debe garantizar un servicio ininterrumpido a cientos de millones de usuarios en todo el mundo. Los tiempos de inactividad deben ser raros, y ChatGPT tiene que responder rápidamente a las indicaciones del usuario.
El aumento en la popularidad traído por el modelo de generación de imágenes 4O hace unos meses afectó el rendimiento de ChatGPT. El servicio cayó más de una vez.
La experiencia de Deepseek R2 podría sufrir de la misma manera si los proveedores de nubes chinos no pueden satisfacer la demanda R2 probablemente generaría.
Mientras el mundo espera anuncios de Deepseek R2, todavía no hay nada oficial sobre el nuevo modelo de razonamiento. Los rumores dicen que ofrecerá mejores capacidades de codificación y apoyará el razonamiento en múltiples idiomas más allá del inglés y el chino.
Los informes de fines de abril también afirmaron que Deepseek R2 period 97.3% más barato para entrenar que GPT-4. Los mismos rumores sugirieron que el costo caería a $ 0.07 por millón de tokens de entrada y $ 0.27 por millón de tokens de salida.
La información Por lo basic, tiene una visión sólida de la industria tecnológica, a menudo revelando detalles sobre los nuevos productos mucho antes del lanzamiento. Incluso si el weblog está apagado sobre los retrasos de Deepseek R2, el hecho es que Deepseek no ha dicho nada. Algo parece apagado y el nuevo Prohibición de nvidia Parece una explicación razonable.
Cuanto más larga se retrase Deepseek R2, más respiración de las empresas de IA obtienen. Operai, Google y otros pueden promover sus productos AI avanzados en todo el mundo sin presión de la competencia china. También tienen más tiempo para reducir los costos, lo que ya está sucediendo. Por ejemplo, ChatGPT O3 se volvió más barato de usar hace unos días. Operai probablemente continuará optimizando sus modelos fronterizos antes de que los retadores como Deepseek R2 lleguen al mercado.