OpenClaw 对接本地 Gemma 4:完整配置指南

从 Ollama API 启动到 OpenClaw 配置,手把手完成本地 Gemma 4 接入。

这篇文章演示如何把 OpenClaw 对接到本地 Gemma 4 模型(通过 Ollama 提供接口)。

如果你还没完成本地部署,可先参考:

第 1 步:启动 Ollama API 服务

先启动 Ollama 服务:

1
ollama serve

你可以用下面的命令快速测试 API 是否正常:

1
2
3
4
curl http://localhost:11434/api/generate -d '{
  "model": "gemma4:12b",
  "prompt": "你好"
}'

如果能返回模型输出,说明本地 API 已可用。

第 2 步:配置 OpenClaw 接入 Ollama

OpenClaw 配置文件路径通常为:

1
~/.openclaw/config.yaml

编辑 config.yaml,在 models 中新增一个本地模型条目:

1
2
3
4
5
6
7
8
models:
  # 你已有的模型配置...

  gemma4-local:
    provider: ollama
    base_url: http://localhost:11434
    model: gemma4:12b
    timeout: 120s

第 3 步:设置默认模型(可选)

如果你希望默认走 Gemma 4,可添加:

1
default_model: gemma4-local

第 4 步:重启并验证 OpenClaw

重启 OpenClaw:

1
openclaw restart

查看模型列表:

1
openclaw models list

发起一次对话测试:

1
openclaw chat --model gemma4-local "你好"

如果对话返回正常,说明 OpenClaw 已成功接入本地 Gemma 4。

常见排查

  • connection refused:先确认 ollama serve 是否在运行。
  • 模型找不到:检查模型名是否与 ollama list 一致(例如 gemma4:12b)。
  • 响应超时:可适当提高 timeout,并优先测试较小模型。

相关文章

记录并分享
使用 Hugo 构建
主题 StackJimmy 设计