OpenClaw とローカル Gemma 4 のドッキング: 完全な構成ガイド

Ollama API の起動から OpenClaw 設定まで、ローカル Gemma 4 へのアクセスを段階的に完了します。

この記事では、OpenClaw をローカル Gemma 4 モデル (Ollama を通じて提供されるインターフェイス) に接続する方法を説明します。

ローカル展開が完了していない場合は、以下を参照してください。

ステップ 1: Ollama API サービスを開始する

まず Ollama サービスを開始します。

1
ollama serve

次のコマンドを使用して、API が適切に動作しているかどうかを簡単にテストできます。

1
2
3
4
curl http://localhost:11434/api/generate -d '{
  "model": "gemma4:12b",
  "prompt": "你好"
}'

モデル出力を返すことができる場合は、ローカル API が使用可能です。

ステップ 2: Ollama に接続するように OpenClaw を構成する

OpenClaw 構成ファイルのパスは通常次のとおりです。

1
~/.openclaw/config.yaml

config.yaml を編集し、ローカル モデル エントリを models に追加します。

1
2
3
4
5
6
7
8
models:
  # 你已有的模型配置...

  gemma4-local:
    provider: ollama
    base_url: http://localhost:11434
    model: gemma4:12b
    timeout: 120s

ステップ 3: デフォルトのモデルを設定する (オプション)

Gemma 4 をデフォルトで使用する場合は、以下を追加できます。

1
default_model: gemma4-local

ステップ 4: OpenClaw を再起動して確認する

OpenClaw を再起動します。

1
openclaw restart

モデルのリストを表示します。

1
openclaw models list

会話テストを開始します。

1
openclaw chat --model gemma4-local "你好"

ダイアログが正常に戻った場合、OpenClaw はローカル Gemma 4 に正常に接続されています。

一般的なトラブルシューティング

  • connection refused: まず、ollama serve が実行されているかどうかを確認します。
  • モデルが見つかりません: モデル名が ollama list (たとえば、gemma4:12b) と一致しているかどうかを確認します。
  • 応答タイムアウト: timeout は適切に増やすことができ、小さいモデルを最初にテストする必要があります。
记录并分享
Hugo で構築されています。
テーマ StackJimmy によって設計されています。