Lanzamiento de la vista previa de DeepSeek-V4: contexto de 1M, dos modelos y notas de migración de API

Basado en la página de noticias oficial de DeepSeek publicada el 24 de abril de 2026, este artículo resume los puntos clave de DeepSeek-V4 Preview, incluidos V4-Pro, V4-Flash, contexto 1M, optimizaciones centradas en agentes, cambios en el modelo API y el aviso de retiro para modelos más antiguos.

DeepSeek lanzó Lanzamiento preliminar de DeepSeek V4 el 2026-04-24. Según la página de anuncio oficial, la actualización se centra en algunos temas muy claros: “1M context”, una línea de dos modelos con “V4-Pro” y “V4-Flash”, optimización dedicada para escenarios de agentes y migración de modelos del lado API.

Si reducimos el comunicado a una frase, la señal principal es la siguiente: DeepSeek no sólo está intentando crear un modelo más potente. Está impulsando el contexto ultralargo y las capacidades de los agentes hacia algo que esté listo para su implementación práctica.

1. Lo que se lanzó esta vez

Según la página oficial, DeepSeek-V4 Preview incluye principalmente dos líneas de productos:

-DeepSeek-V4-Pro -DeepSeek-V4-Flash

Las descripciones oficiales también son muy directas:

  • DeepSeek-V4-Pro: 1.6T total / 49B parámetros activos
  • DeepSeek-V4-Flash: 284B en total / 13B de parámetros activos

El nombre ya deja clara la estrategia. Esta no es una actualización de un solo modelo. DeepSeek está lanzando un modelo de gama alta y un modelo más rentable al mismo tiempo.

“V4-Pro” está posicionado alrededor del techo de rendimiento, y DeepSeek dice que puede competir con los mejores modelos de código cerrado del mundo. V4-Flash, por el contrario, se posiciona en torno a la velocidad, la eficiencia y el menor costo, lo que lo hace más adecuado para cargas de trabajo que se preocupan más por la latencia y el precio de API.

2. 1M contexto es el título más visible

Una de las líneas más destacadas de la página oficial es: “Bienvenido a la era del contexto rentable de 1 millón de longitud”.

DeepSeek no se limita a decir que el modelo admite un contexto prolongado. Presenta “contexto 1M” como una capacidad predeterminada de esta generación. La página es explícita que:

  • 1M context es ahora el estándar predeterminado en todos los servicios oficiales de DeepSeek
  • Tanto V4-Pro como V4-Flash admiten contexto 1M

La importancia de esto no es sólo que puedas colocar más tokens. Afecta directamente a tareas como:

  • Comprender grandes bases de código
  • Preguntas y respuestas de documentos extensos y síntesis de información.
  • Flujos de trabajo de agentes de múltiples turnos
  • Tareas complejas que abarcan múltiples archivos, herramientas y etapas.

Cuando la ventana de contexto es lo suficientemente grande, es menos probable que el modelo pierda el contexto a mitad del camino y vuelva a leer el material repetidamente. Esto es muy importante para la codificación agente y el trabajo de conocimiento complejo.

3. Qué enfatiza principalmente V4-Pro

Según el texto de la página oficial, “DeepSeek-V4-Pro” se centra en tres cosas:

  • Capacidad de codificación agente
  • conocimiento mundial
  • Capacidad de razonamiento

La página dice que “V4-Pro” alcanza SOTA de código abierto en puntos de referencia de codificación agente. También afirma ser líder entre los modelos abiertos actuales en el conocimiento mundial, sólo por detrás de “Gemini-3.1-Pro”, y afirma que su rendimiento en matemáticas, “STEM” y codificación supera a los modelos abiertos actuales y rivaliza con los mejores modelos de código cerrado.

En otras palabras, “V4-Pro” no se posiciona como un simple modelo de preguntas y respuestas. Está dirigido mucho más al razonamiento de alta dificultad, la codificación compleja y la ejecución de tareas a largo plazo.

4. V4-Flash no es solo una versión reducida

Otro punto destacable es que DeepSeek no presenta V4-Flash como modelo de gama baja. Más bien, subraya que el modelo ya es lo suficientemente sólido para muchas tareas prácticas.

Según el anuncio, V4-Flash:

  • Tiene una capacidad de razonamiento cercana a “V4-Pro”.
  • Funciona a la par con V4-Pro en tareas simples de agente
  • Utiliza menos parámetros, responde más rápido y es más económico para el uso de API

Eso significa que la alineación no es una estructura muy dividida de “un buque insignia, un nivel de entrada”. Está más cerca de:

  • V4-Pro: optimización para un mayor rendimiento y un techo más resistente
  • V4-Flash: optimización para una menor latencia y una mejor rentabilidad

Para los desarrolladores, esta suele ser una combinación más práctica, porque muchas tareas de producción no necesitan el modelo más sólido en teoría. Necesitan algo lo suficientemente fuerte, lo suficientemente rápido y lo suficientemente asequible.

5. El lanzamiento pone un claro énfasis en la optimización de los agentes.

Otra señal fuerte de la página de anuncios es que DeepSeek está impulsando activamente “V4” hacia casos de uso de agentes.

La página dice que “DeepSeek-V4” se ha integrado perfectamente con varios agentes líderes de IA, incluidos:

  • Código Claude
  • OpenClaw
  • Código Abierto

DeepSeek también dice que “V4” ya se está utilizando en sus flujos de trabajo de codificación agentes internos.

Eso significa que el objetivo ya no se limita al chat o a la finalización ordinaria. El modelo se está posicionando para flujos de trabajo más largos: leer código, comprender la estructura, llamar a herramientas, generar resultados y conectar todo el proceso.

Si ha estado prestando atención a los agentes de codificación recientemente, vale la pena señalarlo. Los proveedores de modelos ya no compiten sólo en base a puntos de referencia. También compiten sobre si el modelo realmente puede integrarse en flujos de trabajo reales.

6. La innovación estructural está al servicio de la eficiencia en el contexto a largo plazo.

En el aspecto técnico, la página resume el trabajo estructural de este lanzamiento como:

  • compresión por token
  • DSA (Atención escasa de DeepSeek)

La dirección es clara: hacer que el contexto largo sea más barato y más eficiente, al mismo tiempo que se reducen los costos de computación y memoria tanto como sea posible.

La página del anuncio no entra en detalles técnicos completos, pero al menos sugiere que DeepSeek no depende únicamente del escalamiento por fuerza bruta para admitir ventanas más largas. También está realizando optimizaciones a nivel de arquitectura específicamente para la eficiencia en contextos prolongados.

Para los usuarios reales, eso a menudo es más importante que simplemente ver un número de contexto mayor, porque la usabilidad real depende de algo más que si “1M” está técnicamente disponible. También depende de:

  • Si la velocidad sigue siendo aceptable
  • Si el costo sigue siendo aceptable
  • Si las tareas de contexto largo permanecen estables en la práctica

7. La API ya está disponible, pero la migración del modelo es importante

La página oficial indica claramente que la API está disponible hoy.

La ruta de migración también es relativamente sencilla:

  • Mantener la misma base_url
  • Cambie el nombre del modelo a deepseek-v4-pro o deepseek-v4-flash

La página también dice que ambos modelos admiten:

  • Contexto 1M
  • Modos duales “Pensamiento / No pensamiento”
  • Compleciones de Chat OpenAI
  • API antrópicas

Eso significa que si ya utiliza la API de DeepSeek, la ruta de actualización no es especialmente difícil. El trabajo principal es actualizar los nombres de los modelos y validar el comportamiento.

8. El calendario de jubilación para modelos antiguos es explícito.

Para los desarrolladores, uno de los detalles más importantes de la página es en realidad el aviso de retirada de modelos más antiguos.

DeepSeek dice explícitamente:

  • chat de búsqueda profunda
  • razonador de búsqueda profunda

quedará completamente retirado y será inaccesible después del 24 de julio de 2026 a las 15:59 UTC. La página también señala que estos dos modelos están siendo encaminados actualmente a los modos de pensamiento y no pensamiento de “deepseek-v4-flash”.

Eso significa que si su proyecto todavía hace referencia directa a deepseek-chat o deepseek-reasoner, ahora es el momento de planificar la migración en lugar de esperar hasta que se acerque la fecha de cierre formal.

9. Por qué vale la pena leer este comunicado

Si comprimimos la actualización en algunas conclusiones principales, se ven así:

  • DeepSeek está convirtiendo el “contexto 1M” de una característica premium a un estándar predeterminado
  • La estrategia de dos modelos es más clara: uno apunta al techo de rendimiento, el otro apunta a la velocidad y la rentabilidad.
  • La capacidad del agente se ha trasladado a un papel muy central.
  • La ruta de actualización de API es relativamente directa, pero el cronograma de retiro del modelo antiguo necesita atención pronto.

Para los usuarios generales, el cambio más visible puede ser que los documentos largos, los contextos de código largos y los flujos de trabajo largos sean más fáciles de encajar en una sola sesión.
Para los desarrolladores, el punto más importante es que si ya están creando agentes, asistentes de codificación, flujos de trabajo de conocimiento o canales de automatización complejos, esta generación está muy claramente diseñada para esos escenarios.

Esta no es sólo una actualización rutinaria del modelo de DeepSeek. Se lee más como una declaración más clara de la próxima dirección de su producto: contexto ultralargo, optimización de agentes y preparación de API más práctica.

Enlaces relacionados

记录并分享
Creado con Hugo
Tema Stack diseñado por Jimmy