この記事では、OpenClaw をローカル Gemma 4 モデル (Ollama を通じて提供されるインターフェイス) に接続する方法を説明します。
ローカル展開が完了していない場合は、以下を参照してください。
ステップ 1: Ollama API サービスを開始する
まず Ollama サービスを開始します。
|
|
次のコマンドを使用して、API が適切に動作しているかどうかを簡単にテストできます。
|
|
モデル出力を返すことができる場合は、ローカル API が使用可能です。
ステップ 2: Ollama に接続するように OpenClaw を構成する
OpenClaw 構成ファイルのパスは通常次のとおりです。
|
|
config.yaml を編集し、ローカル モデル エントリを models に追加します。
|
|
ステップ 3: デフォルトのモデルを設定する (オプション)
Gemma 4 をデフォルトで使用する場合は、以下を追加できます。
|
|
ステップ 4: OpenClaw を再起動して確認する
OpenClaw を再起動します。
|
|
モデルのリストを表示します。
|
|
会話テストを開始します。
|
|
ダイアログが正常に戻った場合、OpenClaw はローカル Gemma 4 に正常に接続されています。
一般的なトラブルシューティング
connection refused: まず、ollama serveが実行されているかどうかを確認します。- モデルが見つかりません: モデル名が
ollama list(たとえば、gemma4:12b) と一致しているかどうかを確認します。 - 応答タイムアウト:
timeoutは適切に増やすことができ、小さいモデルを最初にテストする必要があります。