En resumen
- DeepSeek V4 podría salir en cuestión de semanas, apuntando a un rendimiento de codificación de nivel élite.
- Personas con información interna afirman que podría superar a Claude y ChatGPT en tareas de código de contexto extenso.
- Los desarrolladores ya están entusiasmados ante la posible disrupción.
Según se informa, DeepSeek planea lanzar su modelo V4 a mediados de febrero, y si las pruebas internas son un indicio, los gigantes de la inteligencia artificial de Silicon Valley deberían estar nerviosos.
La startup de IA con sede en Hangzhou podría estar apuntando a un lanzamiento alrededor del 17 de febrero—el Año Nuevo Lunar, naturalmente—con un modelo específicamente diseñado para tareas de codificación, según
. Personas con conocimiento directo del proyecto afirman que V4 supera tanto a Claude de Anthropic como a la serie GPT de OpenAI en pruebas internas, especialmente al manejar prompts de código extremadamente extensos.
Por supuesto, no se ha compartido públicamente ningún benchmark ni información sobre el modelo, así que es imposible verificar directamente dichas afirmaciones. DeepSeek tampoco ha confirmado los rumores.
Aun así, la comunidad de desarrolladores no está esperando una confirmación oficial. Los foros de Reddit r/DeepSeek y r/LocalLLaMA ya están en ebullición, los usuarios están acumulando créditos de API y los entusiastas en X han sido rápidos en compartir sus predicciones de que V4 podría consolidar la posición de DeepSeek como el desvalido ingenioso que se niega a seguir las reglas multimillonarias de Silicon Valley.
Anthropic bloqueó las suscripciones de Claude en apps de terceros como OpenCode, y al parecer cortó el acceso de xAI y OpenAI.
Claude y Claude Code son geniales, pero todavía no son 10 veces mejores. Esto solo hará que otros laboratorios avancen más rápido en sus modelos/agentes de codificación.
Se rumorea que DeepSeek V4 va a salir…
— Yuchen Jin (@Yuchenj_UW) 9 de enero de 2026
No sería la primera disrupción de DeepSeek. Cuando la empresa lanzó su modelo de razonamiento R1 en enero de 2025, provocó una venta masiva de un billón de dólares en los mercados globales.
¿La razón? El R1 de DeepSeek igualó al modelo o1 de OpenAI en pruebas de matemáticas y razonamiento a pesar de haber costado supuestamente solo 6 millones de dólares en desarrollo—aproximadamente 68 veces menos que lo que gastaban los competidores. Su modelo V3 luego alcanzó el 90,2% en el benchmark MATH-500, superando ampliamente el 78,3% de Claude y la reciente actualización “V3.2 Speciale” mejoró aún más su rendimiento.

Imagen: DeepSeek
El enfoque de V4 en la codificación sería un giro estratégico. Mientras R1 enfatizaba el razonamiento puro—lógica, matemáticas, pruebas formales—V4 es un modelo híbrido (razonamiento y tareas no relacionadas al razonamiento) que apunta al mercado de desarrolladores empresariales donde la generación de código de alta precisión se traduce directamente en ingresos.
Para reclamar la supremacía, V4 tendría que superar a Claude Opus 4.5, que actualmente ostenta el récord de SWE-bench Verified con un 80,9%. Pero si los lanzamientos anteriores de DeepSeek sirven de guía, entonces esto podría no ser imposible de lograr, incluso con todas las limitaciones que enfrentaría un laboratorio de IA chino.
La salsa no tan secreta
Suponiendo que los rumores sean ciertos, ¿cómo puede este pequeño laboratorio lograr tal hazaña?
El arma secreta de la empresa podría estar contenida en su paper de investigación del 1 de enero: Manifold-Constrained Hyper-Connections, o mHC. Co-escrito por el fundador Liang Wenfeng, el nuevo método de entrenamiento aborda un problema fundamental en la escalabilidad de modelos de lenguaje grandes—cómo expandir la capacidad de un modelo sin que se vuelva inestable o explote durante el entrenamiento.
Las arquitecturas tradicionales de IA fuerzan toda la información a través de un solo canal estrecho. mHC ensancha ese canal en múltiples flujos que pueden intercambiar información sin causar un colapso en el entrenamiento.

Imagen: DeepSeek
Wei Sun, analista principal de IA en Counterpoint Research, calificó a mHC como un "avance sorprendente" en declaraciones a
. La técnica, dijo, demuestra que DeepSeek puede "eludir los cuellos de botella computacionales y desbloquear saltos en inteligencia", incluso con acceso limitado a chips avanzados debido a las restricciones de exportación de EE.UU.
Lian Jye Su, analista jefe en Omdia, destacó que la disposición de DeepSeek a publicar sus métodos señala una "nueva confianza en la industria china de IA". El enfoque open-source de la empresa la ha convertido en la favorita de desarrolladores que la ven como el ejemplo de lo que OpenAI solía ser, antes de pasarse a modelos cerrados y rondas de recaudación de miles de millones de dólares.
No todos están convencidos. Algunos desarrolladores en Reddit se quejan de que los modelos de razonamiento de DeepSeek desperdician cómputo en tareas simples, mientras que críticos argumentan que los benchmarks de la empresa no reflejan el desorden del mundo real. Un post viral en Medium titulado "DeepSeek Apesta—Y Ya No Finjo Que No" en abril de 2025 acusó a los modelos de producir "código genérico con errores" y "librerías alucinadas".
DeepSeek también carga con problemas. Preocupaciones de privacidad han perseguido a la empresa, con algunos gobiernos prohibiendo la app nativa de DeepSeek. Los lazos de la empresa con China y las dudas sobre censura en sus modelos agregan fricción geopolítica a los debates técnicos.
Aun así, el impulso es innegable. DeepSeek ha sido ampliamente adoptado en Asia, y si V4 cumple sus promesas de codificación, la adopción empresarial en Occidente podría seguir.

Imagen: Microsoft
También está el factor del timing. Según
, DeepSeek originalmente planeaba lanzar su modelo R2 en mayo de 2025, pero extendió el plazo luego de que el fundador Liang se mostrara insatisfecho con su rendimiento. Ahora, con V4 supuestamente apuntando a febrero y R2 posiblemente siguiendo en agosto, la empresa se mueve a un ritmo que sugiere urgencia—o confianza. Quizás ambas.