Claude Code se ha vuelto un asistente de programación AI muy popular. Su atractivo no está solo en conversar sobre código, sino en leer un proyecto, modificar archivos, ejecutar comandos, instalar dependencias y seguir corrigiendo errores como un Agent operativo.
El problema es el coste. Cuando el proyecto crece, el contexto se alarga y varias rondas de trabajo tipo Agent pueden consumir cuota de API muy rápido. Si solo quieres experimentar, modificar herramientas pequeñas, escribir scripts o trabajar con proyectos privados locales, surge una pregunta natural: ¿se puede mantener la experiencia de Claude Code, pero ejecutar el modelo en local?
La herramienta clave de esta configuración es CC Switch. Permite que Claude Code se conecte al servicio local de Ollama mediante una API compatible con OpenAI, de modo que las solicitudes se reenvían al modelo local en lugar de ir directamente a la API oficial de Claude.
Qué Problema Resuelve Esta Configuración
Puedes entender el flujo completo así:
|
|
Claude Code sigue encargándose del flujo de programación y de las operaciones sobre el proyecto. CC Switch gestiona la configuración del proveedor de modelos y la compatibilidad de API. Ollama ejecuta el modelo en la máquina local.
Esto no significa que un modelo local se convierta de pronto en Claude. Su valor real está en poder usar el flujo tipo Agent de Claude Code en escenarios locales, privados, sin conexión o de menor coste.
Preparación Básica
Antes de empezar, prepara estos componentes:
- Instala
Git. - Instala
Ollama. - Descarga un modelo local adecuado para programación.
- Instala
CC Switch. - Ten Claude Code disponible en tu máquina.
Para el modelo, puedes empezar con opciones orientadas a código, como Qwen Coder, DeepSeek Coder u otros modelos con buen comportamiento en generación de código y llamadas a herramientas. Cuanto más grande sea el modelo, mejores pueden ser los resultados, pero también aumentará la presión sobre la memoria y la GPU.
Si tu equipo tiene memoria limitada, empieza con un modelo más pequeño. Primero confirma que el flujo funciona bien y luego prueba modelos más grandes.
Configuración Clave De CC Switch
Después de iniciar Ollama, su dirección local de API suele ser:
|
|
En CC Switch, elige un tipo de proveedor compatible con OpenAI. Una opción habitual es:
|
|
Después apunta el base URL a la dirección local de Ollama.
Para el campo de API key, Ollama local normalmente no necesita una clave real, pero muchas herramientas siguen exigiendo una variable de entorno o un valor de relleno. Puedes usar:
|
|
o cualquier otra variable de relleno aceptada por tu configuración local.
Hay un punto de configuración que merece especial atención:
|
|
Esto mapea los roles de modelo que Claude Code espera hacia el proveedor local. En la práctica, debes vincular haiku, sonnet y opus con los nombres de modelo expuestos por Ollama o CC Switch. Si este mapeo es incorrecto, Claude Code puede fallar al llamar al modelo o volver a una configuración inesperada.
Dónde Destaca Claude Code
La mayor ventaja de Claude Code no es una finalización aislada, sino el flujo completo de desarrollo:
- leer y entender la estructura del proyecto;
- localizar archivos relacionados con una tarea;
- editar código directamente;
- ejecutar comandos y pruebas;
- observar errores e iterar;
- completar tareas de varios pasos en una sola sesión.
Por eso muchas personas quieren conservar Claude Code aunque cambien a un modelo local. Una interfaz de chat normal puede generar fragmentos de código, pero no trabaja de forma natural dentro de un repositorio. Claude Code se parece más a un asistente de desarrollo capaz de actuar.
Qué Papel Cumple Ollama
Ollama se encarga de ejecutar y gestionar los modelos locales. Gestiona la descarga, la carga y la inferencia local.
La ventaja es clara: las solicitudes permanecen en tu máquina, el uso repetido no genera facturas de API y también puedes trabajar cuando la red está limitada. Para código privado, también resulta más aceptable que enviar cada ventana de contexto a un modelo en la nube.
La contrapartida también es clara. Los modelos locales dependen mucho del hardware y de la calidad del modelo. Un modelo pequeño puede manejar ediciones simples, explicaciones y generación de scripts, pero puede sufrir con refactorizaciones grandes entre varios archivos o decisiones de arquitectura delicadas.
Dónde Están Los Límites De La Experiencia
Esta configuración no debe verse como un reemplazo completo de los modelos cloud más potentes de Claude.
Puedes encontrarte con estos problemas:
- comprensión más débil de contextos largos;
- llamadas a herramientas inestables en tareas complejas;
- inferencia lenta en máquinas solo con CPU;
- más alucinaciones de rutas de archivo o APIs inexistentes;
- planificación menos fiable en varias rondas;
- menor tasa de éxito en refactorizaciones de repositorios grandes.
La expectativa más razonable es usarlo como un asistente de desarrollo local gratuito, no como un sustituto perfecto de un modelo cloud de primera línea.
La Compatibilidad Multimodal Sigue Siendo Inestable
Algunos usuarios quieren que Claude Code maneje capturas de pantalla, imágenes de UI, diagramas u otras entradas multimodales. Esta parte depende del modelo local y de la capa de reenvío.
Si el modelo de Ollama seleccionado no admite visión, o si CC Switch no traduce correctamente el formato de solicitud, las funciones multimodales pueden fallar. Incluso con un modelo de visión, el comportamiento puede diferir de la API oficial de Claude.
Por ahora, esta configuración es más adecuada para flujos de texto y código. Conviene tratar el soporte multimodal como algo experimental.
Para Quién Tiene Sentido Probarlo
Esta configuración es adecuada para:
- desarrolladores que quieren probar el flujo de Claude Code a bajo coste;
- usuarios que escriben scripts, herramientas pequeñas y automatizaciones con frecuencia;
- equipos que prefieren mantener el código en máquinas locales;
- principiantes que quieren un asistente de programación AI sin gasto continuo de API;
- personas que evalúan distintos modelos locales para código.
Es menos adecuada si dependes mucho de contexto largo, monorepos grandes, calidad estricta de revisión de código o refactorizaciones complejas de proyectos completos.
Recomendaciones De Uso
Empieza con tareas pequeñas.
Por ejemplo:
- explicar un solo archivo;
- refactorizar una función pequeña;
- generar un script de shell;
- corregir un error simple;
- añadir una función pequeña;
- escribir pruebas unitarias para un módulo acotado.
Después de cada cambio, ejecuta pruebas o al menos revisa el diff. Un modelo local puede ser útil, pero no conviene aceptar a ciegas todas sus ediciones.
Si el modelo pierde el contexto con frecuencia, reduce el alcance de la tarea. En lugar de pedirle “refactoriza todo el proyecto”, pídele “refactoriza esta función” o “añade validación en este archivo”.
Resumen
Claude Code + CC Switch + Ollama es una combinación interesante. Mantiene el flujo de desarrollo tipo Agent de Claude Code y mueve la inferencia a un modelo local.
Sus mayores ventajas son el menor coste, la privacidad local y un flujo de desarrollo cómodo. Sus límites también son evidentes: la calidad del modelo, el rendimiento del hardware, el contexto largo y la estabilidad de las llamadas a herramientas afectan directamente la experiencia final.
Si ya usas Ollama y quieres un flujo de programación AI local más práctico, vale la pena probar esta configuración. Solo recuerda empezar con tareas pequeñas, verificar cada cambio y tratar el modelo local como un asistente, no como un ingeniero automático.