這篇文章示範如何把 OpenClaw 對接到本地 Gemma 4 模型(透過 Ollama 提供介面)。
如果你還沒完成本地部署,可先參考:
第 1 步:啟動 Ollama API 服務
先啟動 Ollama 服務:
|
|
你可以用下面的命令快速測試 API 是否正常:
|
|
如果能返回模型輸出,代表本地 API 已可用。
第 2 步:配置 OpenClaw 接入 Ollama
OpenClaw 配置檔路徑通常為:
|
|
編輯 config.yaml,在 models 中新增一個本地模型條目:
|
|
第 3 步:設定預設模型(可選)
如果你希望預設走 Gemma 4,可新增:
|
|
第 4 步:重啟並驗證 OpenClaw
重啟 OpenClaw:
|
|
查看模型列表:
|
|
發起一次對話測試:
|
|
如果對話回傳正常,代表 OpenClaw 已成功接入本地 Gemma 4。
常見排查
connection refused:先確認ollama serve是否在運行。- 找不到模型:檢查模型名是否與
ollama list一致(例如gemma4:12b)。 - 回應超時:可適度提高
timeout,並優先測試較小模型。