这篇文章演示如何把 OpenClaw 对接到本地 Gemma 4 模型(通过 Ollama 提供接口)。
如果你还没完成本地部署,可先参考:
第 1 步:启动 Ollama API 服务
先启动 Ollama 服务:
|
|
你可以用下面的命令快速测试 API 是否正常:
|
|
如果能返回模型输出,说明本地 API 已可用。
第 2 步:配置 OpenClaw 接入 Ollama
OpenClaw 配置文件路径通常为:
|
|
编辑 config.yaml,在 models 中新增一个本地模型条目:
|
|
第 3 步:设置默认模型(可选)
如果你希望默认走 Gemma 4,可添加:
|
|
第 4 步:重启并验证 OpenClaw
重启 OpenClaw:
|
|
查看模型列表:
|
|
发起一次对话测试:
|
|
如果对话返回正常,说明 OpenClaw 已成功接入本地 Gemma 4。
常见排查
connection refused:先确认ollama serve是否在运行。- 模型找不到:检查模型名是否与
ollama list一致(例如gemma4:12b)。 - 响应超时:可适当提高
timeout,并优先测试较小模型。