Conectar OpenClaw con Gemma 4 local: guía completa de configuración

Desde iniciar la API de Ollama hasta configurar OpenClaw, una guía paso a paso para conectar Gemma 4 local.

Este artículo muestra cómo conectar OpenClaw a un modelo Gemma 4 local, exponiendo la interfaz mediante Ollama.

Si todavía no completaste el despliegue local, puedes consultar primero:

Paso 1: iniciar el servicio API de Ollama

Primero inicia el servicio de Ollama:

1
ollama serve

Puedes probar rápidamente si la API funciona con el siguiente comando:

1
2
3
4
curl http://localhost:11434/api/generate -d '{
  "model": "gemma4:12b",
  "prompt": "你好"
}'

Si devuelve salida del modelo, significa que la API local ya está disponible.

Paso 2: configurar OpenClaw para acceder a Ollama

La ruta habitual del archivo de configuración de OpenClaw es:

1
~/.openclaw/config.yaml

Edita config.yaml y añade una entrada de modelo local dentro de models:

1
2
3
4
5
6
7
8
models:
  # 你已有的模型配置...

  gemma4-local:
    provider: ollama
    base_url: http://localhost:11434
    model: gemma4:12b
    timeout: 120s

Paso 3: establecer el modelo predeterminado (opcional)

Si quieres que Gemma 4 sea el modelo predeterminado, añade:

1
default_model: gemma4-local

Paso 4: reiniciar y verificar OpenClaw

Reinicia OpenClaw:

1
openclaw restart

Consulta la lista de modelos:

1
openclaw models list

Inicia una conversación de prueba:

1
openclaw chat --model gemma4-local "你好"

Si la conversación devuelve respuesta con normalidad, OpenClaw ya se conectó correctamente a Gemma 4 local.

Diagnóstico habitual

  • connection refused: confirma primero si ollama serve está ejecutándose.
  • Modelo no encontrado: comprueba que el nombre del modelo coincida con ollama list (por ejemplo gemma4:12b).
  • Timeout de respuesta: puedes aumentar timeout y probar primero con un modelo más pequeño.
记录并分享
Creado con Hugo
Tema Stack diseñado por Jimmy