OpenClaw 對接本地 Gemma 4:完整配置指南

從 Ollama API 啟動到 OpenClaw 配置,手把手完成本地 Gemma 4 接入。

這篇文章示範如何把 OpenClaw 對接到本地 Gemma 4 模型(透過 Ollama 提供介面)。

如果你還沒完成本地部署,可先參考:

第 1 步:啟動 Ollama API 服務

先啟動 Ollama 服務:

1
ollama serve

你可以用下面的命令快速測試 API 是否正常:

1
2
3
4
curl http://localhost:11434/api/generate -d '{
  "model": "gemma4:12b",
  "prompt": "你好"
}'

如果能返回模型輸出,代表本地 API 已可用。

第 2 步:配置 OpenClaw 接入 Ollama

OpenClaw 配置檔路徑通常為:

1
~/.openclaw/config.yaml

編輯 config.yaml,在 models 中新增一個本地模型條目:

1
2
3
4
5
6
7
8
models:
  # 你已有的模型配置...

  gemma4-local:
    provider: ollama
    base_url: http://localhost:11434
    model: gemma4:12b
    timeout: 120s

第 3 步:設定預設模型(可選)

如果你希望預設走 Gemma 4,可新增:

1
default_model: gemma4-local

第 4 步:重啟並驗證 OpenClaw

重啟 OpenClaw:

1
openclaw restart

查看模型列表:

1
openclaw models list

發起一次對話測試:

1
openclaw chat --model gemma4-local "你好"

如果對話回傳正常,代表 OpenClaw 已成功接入本地 Gemma 4。

常見排查

  • connection refused:先確認 ollama serve 是否在運行。
  • 找不到模型:檢查模型名是否與 ollama list 一致(例如 gemma4:12b)。
  • 回應超時:可適度提高 timeout,並優先測試較小模型。

相關文章

记录并分享
使用 Hugo 建立
主題 StackJimmy 設計