DeepSeek lanzó Lanzamiento preliminar de DeepSeek V4 el 2026-04-24. Según la página de anuncio oficial, la actualización se centra en algunos temas muy claros: “1M context”, una línea de dos modelos con “V4-Pro” y “V4-Flash”, optimización dedicada para escenarios de agentes y migración de modelos del lado API.
Si reducimos el comunicado a una frase, la señal principal es la siguiente: DeepSeek no sólo está intentando crear un modelo más potente. Está impulsando el contexto ultralargo y las capacidades de los agentes hacia algo que esté listo para su implementación práctica.
1. Lo que se lanzó esta vez
Según la página oficial, DeepSeek-V4 Preview incluye principalmente dos líneas de productos:
-DeepSeek-V4-Pro
-DeepSeek-V4-Flash
Las descripciones oficiales también son muy directas:
DeepSeek-V4-Pro:1.6T total / 49B parámetros activosDeepSeek-V4-Flash:284B en total / 13B de parámetros activos
El nombre ya deja clara la estrategia. Esta no es una actualización de un solo modelo. DeepSeek está lanzando un modelo de gama alta y un modelo más rentable al mismo tiempo.
“V4-Pro” está posicionado alrededor del techo de rendimiento, y DeepSeek dice que puede competir con los mejores modelos de código cerrado del mundo. V4-Flash, por el contrario, se posiciona en torno a la velocidad, la eficiencia y el menor costo, lo que lo hace más adecuado para cargas de trabajo que se preocupan más por la latencia y el precio de API.
2. 1M contexto es el título más visible
Una de las líneas más destacadas de la página oficial es: “Bienvenido a la era del contexto rentable de 1 millón de longitud”.
DeepSeek no se limita a decir que el modelo admite un contexto prolongado. Presenta “contexto 1M” como una capacidad predeterminada de esta generación. La página es explícita que:
1M contextes ahora el estándar predeterminado en todos los servicios oficiales de DeepSeek- Tanto
V4-ProcomoV4-Flashadmitencontexto 1M
La importancia de esto no es sólo que puedas colocar más tokens. Afecta directamente a tareas como:
- Comprender grandes bases de código
- Preguntas y respuestas de documentos extensos y síntesis de información.
- Flujos de trabajo de agentes de múltiples turnos
- Tareas complejas que abarcan múltiples archivos, herramientas y etapas.
Cuando la ventana de contexto es lo suficientemente grande, es menos probable que el modelo pierda el contexto a mitad del camino y vuelva a leer el material repetidamente. Esto es muy importante para la codificación agente y el trabajo de conocimiento complejo.
3. Qué enfatiza principalmente V4-Pro
Según el texto de la página oficial, “DeepSeek-V4-Pro” se centra en tres cosas:
- Capacidad de codificación agente
- conocimiento mundial
- Capacidad de razonamiento
La página dice que “V4-Pro” alcanza SOTA de código abierto en puntos de referencia de codificación agente. También afirma ser líder entre los modelos abiertos actuales en el conocimiento mundial, sólo por detrás de “Gemini-3.1-Pro”, y afirma que su rendimiento en matemáticas, “STEM” y codificación supera a los modelos abiertos actuales y rivaliza con los mejores modelos de código cerrado.
En otras palabras, “V4-Pro” no se posiciona como un simple modelo de preguntas y respuestas. Está dirigido mucho más al razonamiento de alta dificultad, la codificación compleja y la ejecución de tareas a largo plazo.
4. V4-Flash no es solo una versión reducida
Otro punto destacable es que DeepSeek no presenta V4-Flash como modelo de gama baja. Más bien, subraya que el modelo ya es lo suficientemente sólido para muchas tareas prácticas.
Según el anuncio, V4-Flash:
- Tiene una capacidad de razonamiento cercana a “V4-Pro”.
- Funciona a la par con
V4-Proen tareas simples de agente - Utiliza menos parámetros, responde más rápido y es más económico para el uso de API
Eso significa que la alineación no es una estructura muy dividida de “un buque insignia, un nivel de entrada”. Está más cerca de:
V4-Pro: optimización para un mayor rendimiento y un techo más resistenteV4-Flash: optimización para una menor latencia y una mejor rentabilidad
Para los desarrolladores, esta suele ser una combinación más práctica, porque muchas tareas de producción no necesitan el modelo más sólido en teoría. Necesitan algo lo suficientemente fuerte, lo suficientemente rápido y lo suficientemente asequible.
5. El lanzamiento pone un claro énfasis en la optimización de los agentes.
Otra señal fuerte de la página de anuncios es que DeepSeek está impulsando activamente “V4” hacia casos de uso de agentes.
La página dice que “DeepSeek-V4” se ha integrado perfectamente con varios agentes líderes de IA, incluidos:
Código ClaudeOpenClawCódigo Abierto
DeepSeek también dice que “V4” ya se está utilizando en sus flujos de trabajo de codificación agentes internos.
Eso significa que el objetivo ya no se limita al chat o a la finalización ordinaria. El modelo se está posicionando para flujos de trabajo más largos: leer código, comprender la estructura, llamar a herramientas, generar resultados y conectar todo el proceso.
Si ha estado prestando atención a los agentes de codificación recientemente, vale la pena señalarlo. Los proveedores de modelos ya no compiten sólo en base a puntos de referencia. También compiten sobre si el modelo realmente puede integrarse en flujos de trabajo reales.
6. La innovación estructural está al servicio de la eficiencia en el contexto a largo plazo.
En el aspecto técnico, la página resume el trabajo estructural de este lanzamiento como:
- compresión por token
DSA (Atención escasa de DeepSeek)
La dirección es clara: hacer que el contexto largo sea más barato y más eficiente, al mismo tiempo que se reducen los costos de computación y memoria tanto como sea posible.
La página del anuncio no entra en detalles técnicos completos, pero al menos sugiere que DeepSeek no depende únicamente del escalamiento por fuerza bruta para admitir ventanas más largas. También está realizando optimizaciones a nivel de arquitectura específicamente para la eficiencia en contextos prolongados.
Para los usuarios reales, eso a menudo es más importante que simplemente ver un número de contexto mayor, porque la usabilidad real depende de algo más que si “1M” está técnicamente disponible. También depende de:
- Si la velocidad sigue siendo aceptable
- Si el costo sigue siendo aceptable
- Si las tareas de contexto largo permanecen estables en la práctica
7. La API ya está disponible, pero la migración del modelo es importante
La página oficial indica claramente que la API está disponible hoy.
La ruta de migración también es relativamente sencilla:
- Mantener la misma
base_url - Cambie el nombre del modelo a
deepseek-v4-proodeepseek-v4-flash
La página también dice que ambos modelos admiten:
Contexto 1M- Modos duales “Pensamiento / No pensamiento”
Compleciones de Chat OpenAIAPI antrópicas
Eso significa que si ya utiliza la API de DeepSeek, la ruta de actualización no es especialmente difícil. El trabajo principal es actualizar los nombres de los modelos y validar el comportamiento.
8. El calendario de jubilación para modelos antiguos es explícito.
Para los desarrolladores, uno de los detalles más importantes de la página es en realidad el aviso de retirada de modelos más antiguos.
DeepSeek dice explícitamente:
chat de búsqueda profundarazonador de búsqueda profunda
quedará completamente retirado y será inaccesible después del 24 de julio de 2026 a las 15:59 UTC. La página también señala que estos dos modelos están siendo encaminados actualmente a los modos de pensamiento y no pensamiento de “deepseek-v4-flash”.
Eso significa que si su proyecto todavía hace referencia directa a deepseek-chat o deepseek-reasoner, ahora es el momento de planificar la migración en lugar de esperar hasta que se acerque la fecha de cierre formal.
9. Por qué vale la pena leer este comunicado
Si comprimimos la actualización en algunas conclusiones principales, se ven así:
- DeepSeek está convirtiendo el “contexto 1M” de una característica premium a un estándar predeterminado
- La estrategia de dos modelos es más clara: uno apunta al techo de rendimiento, el otro apunta a la velocidad y la rentabilidad.
- La capacidad del agente se ha trasladado a un papel muy central.
- La ruta de actualización de API es relativamente directa, pero el cronograma de retiro del modelo antiguo necesita atención pronto.
Para los usuarios generales, el cambio más visible puede ser que los documentos largos, los contextos de código largos y los flujos de trabajo largos sean más fáciles de encajar en una sola sesión.
Para los desarrolladores, el punto más importante es que si ya están creando agentes, asistentes de codificación, flujos de trabajo de conocimiento o canales de automatización complejos, esta generación está muy claramente diseñada para esos escenarios.
Esta no es sólo una actualización rutinaria del modelo de DeepSeek. Se lee más como una declaración más clara de la próxima dirección de su producto: contexto ultralargo, optimización de agentes y preparación de API más práctica.
Enlaces relacionados
- Página oficial de noticias de DeepSeek: https://api-docs.deepseek.com/news/news260424
- Informe técnico: https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf
- Pesos abiertos: https://huggingface.co/collections/deepseek-ai/deepseek-v4