Cline ya admite el proveedor OpenAI Compatible. La API de DeepSeek también es compatible con llamadas al estilo del SDK de OpenAI, así que conectar deepseek-v4-pro a Cline no es complicado: elige OpenAI Compatible y completa la Base URL de DeepSeek, la API Key y el nombre del modelo.
Los pasos siguientes cubren tanto la interfaz de la extensión para VS Code como Cline CLI.
Preparar una API Key de DeepSeek
Primero, crea una API Key en la plataforma de DeepSeek.
Necesitas tres valores:
| Elemento | Valor |
|---|---|
| Provider | OpenAI Compatible |
| Base URL | https://api.deepseek.com |
| Model ID | deepseek-v4-pro |
La documentación oficial de DeepSeek indica que la serie V4 usa la interfaz existente compatible con OpenAI. Mantén base_url como https://api.deepseek.com y establece model en deepseek-v4-pro o deepseek-v4-flash al llamarlo.
Configurarlo en la extensión de Cline
Si usas la extensión de Cline en VS Code, configúrala así:
- Abre Cline desde la barra lateral de VS Code.
- Entra en la configuración de Cline o en la configuración de modelos.
- Selecciona
OpenAI Compatiblecomo proveedor. - Introduce tu API Key de DeepSeek.
- Configura Base URL como:
|
|
- Configura Model ID como:
|
|
- Guarda la configuración y ejecuta una prueba sencilla en Cline.
Empieza con una tarea de solo lectura y bajo riesgo:
|
|
Si Cline puede leer y responder con normalidad, la conexión del modelo funciona.
Configurarlo en Cline CLI
Si usas Cline CLI, ejecuta cline provider configure openai-compatible para entrar en la configuración interactiva.
Ejemplo:
|
|
Completa:
|
|
Después de configurarlo, prueba con una tarea de solo lectura:
|
|
Si quieres reducir el coste al principio, puedes cambiar temporalmente Model ID a:
|
|
Luego vuelve a deepseek-v4-pro para planificación compleja, verificación de hechos, colaboración con varias herramientas o cambios de código de alto riesgo.
División de modelos recomendada
DeepSeek V4 Pro y Flash funcionan mejor con una separación clara.
| Modelo | Mejor para |
|---|---|
deepseek-v4-flash |
Lectura rutinaria de código, pequeños arreglos por lotes, generación de scripts, resúmenes de contexto, cambios frontend de bajo riesgo |
deepseek-v4-pro |
Planificación de arquitectura, bugs complejos, refactors entre archivos, verificación de hechos, llamadas multi-herramienta, cambios de alto riesgo |
En herramientas de Agent como Cline, el coste suele venir del contexto largo, lecturas repetidas de archivos, generación de planes y llamadas de herramientas en varias rondas. Si la tarea es ligera, usa Flash para volumen; si necesita mejor juicio, cambia a Pro.
Cómo configurar la longitud de contexto
DeepSeek V4 Pro y Flash admiten contexto largo. Si Cline exige un valor manual de ventana de contexto, puedes interpretarlo según el contexto de 1M indicado en la página oficial de modelos de DeepSeek.
En la práctica, no conviene meter todos los archivos en contexto desde el inicio. Cline lee archivos según la tarea, y un flujo mejor suele ser:
- primero pedirle que inspeccione la estructura del directorio;
- luego pedirle que localice los archivos relevantes;
- finalmente dejar que modifique solo los archivos objetivo.
Esto ahorra tokens y mantiene más claro el límite de la tarea.
Problemas comunes
1. Modelo no encontrado
Primero comprueba que Model ID sea exactamente:
|
|
No escribas DeepSeek V4 Pro, deepseek-v4 ni otro nombre mostrado.
2. 401 o fallo de autenticación
Comprueba la API Key:
- si se copió completa;
- si contiene espacios adicionales;
- si se introdujo en la configuración de proveedor que Cline está usando;
- si la cuenta de DeepSeek tiene saldo disponible.
3. Fallo de conexión
Comprueba la Base URL:
|
|
No añadas /v1/chat/completions al final. El proveedor OpenAI Compatible de Cline construirá por sí mismo las solicitudes de la interfaz compatible.
4. Las llamadas de Cline son demasiado caras
Puedes pasar las tareas rutinarias a deepseek-v4-flash y usar deepseek-v4-pro solo para tareas complejas.
Además, haz que la descripción de la tarea sea lo más clara posible:
|
|
Las tareas de Agent son más caras cuando los límites son poco claros. Cuanto más claro sea el límite, menos archivos leerá, menos llamadas de herramienta hará y más controlable será el coste.
5. Error: reasoning_content must be passed back
Si ves un error como este:
|
|
Normalmente no es un problema de Key, cuota o Base URL. Significa que el modo de pensamiento de DeepSeek V4 Pro y el historial multi-ronda de llamadas de herramientas del cliente actual no están alineados.
La documentación oficial de DeepSeek indica:
- el modo de pensamiento está
enabledpor defecto; - el modo de pensamiento devuelve
reasoning_content; - si ocurre una llamada de herramienta en una ronda, las solicitudes posteriores deben devolver el
reasoning_contentde ese mensaje del asistente; - si el cliente no lo devuelve correctamente, la API devuelve 400.
Cuando Cline se conecta mediante el proveedor OpenAI Compatible, este error puede aparecer en la segunda ronda o después de llamadas de herramienta si la versión actual no conserva y reenvía por completo el reasoning_content de DeepSeek.
Prueba en este orden:
- Actualiza Cline a la versión más reciente;
- confirma que estás usando
OpenAI Compatible, no el proveedor normalOpenAI; - si Cline admite cuerpo de solicitud personalizado, intenta desactivar el modo de pensamiento:
|
|
- si Cline no admite parámetros extra en el body, usa temporalmente otro modelo o un servicio proxy compatible;
- vuelve a
deepseek-v4-procuando Cline admita reenviarreasoning_contentde DeepSeek V4.
Ten en cuenta que desactivar el modo de pensamiento puede reducir la capacidad de razonamiento complejo, pero puede esquivar problemas de compatibilidad del cliente cuando reasoning_content no se devuelve.
Configuración copiable
|
|
Para modo de bajo coste:
|
|
Resumen
Solo hay tres pasos clave para llamar a DeepSeek V4 Pro en Cline:
- elegir
OpenAI Compatiblecomo proveedor; - establecer Base URL en
https://api.deepseek.com; - establecer Model ID en
deepseek-v4-pro.
Después de configurarlo, prueba con una tarea de solo lectura antes de darle cambios reales de código. Si ejecutas tareas de Agent con frecuencia, separa Flash y Pro: Flash maneja trabajo ligero y frecuente, mientras Pro se ocupa del juicio complejo y las tareas de respaldo.
Referencias: