Este artículo muestra cómo conectar OpenClaw a un modelo Gemma 4 local, exponiendo la interfaz mediante Ollama.
Si todavía no completaste el despliegue local, puedes consultar primero:
Paso 1: iniciar el servicio API de Ollama
Primero inicia el servicio de Ollama:
|
|
Puedes probar rápidamente si la API funciona con el siguiente comando:
|
|
Si devuelve salida del modelo, significa que la API local ya está disponible.
Paso 2: configurar OpenClaw para acceder a Ollama
La ruta habitual del archivo de configuración de OpenClaw es:
|
|
Edita config.yaml y añade una entrada de modelo local dentro de models:
|
|
Paso 3: establecer el modelo predeterminado (opcional)
Si quieres que Gemma 4 sea el modelo predeterminado, añade:
|
|
Paso 4: reiniciar y verificar OpenClaw
Reinicia OpenClaw:
|
|
Consulta la lista de modelos:
|
|
Inicia una conversación de prueba:
|
|
Si la conversación devuelve respuesta con normalidad, OpenClaw ya se conectó correctamente a Gemma 4 local.
Diagnóstico habitual
connection refused: confirma primero siollama serveestá ejecutándose.- Modelo no encontrado: comprueba que el nombre del modelo coincida con
ollama list(por ejemplogemma4:12b). - Timeout de respuesta: puedes aumentar
timeouty probar primero con un modelo más pequeño.