Ollama クラウド モデルとは何か、そしてその使用方法

Ollama クラウド モデルとは何か、ローカル モデルとの違い、コマンド ラインまたは API 経由で呼び出す方法について簡単に説明します。

普段 Ollama を使用してローカル モデルを実行している場合は、クラウド モデルを簡単に理解できるはずです。

主要な相違点は 1 つだけです。
ローカル モデルはユーザーのコンピューター上で推論され、クラウド モデルは Ollama のクラウド上で推論され、結果が返されます。

クラウドモデルとは何ですか

Ollama クラウド モデルは、Ollama の呼び出し方法を保持しますが、コンピューティングの場所をローカルからクラウドに変更します。

これを行うことの利点は次のとおりです。

  • ローカルハードウェアへの負担が軽減される
  • ローカルマシンでは実行できない大規模なモデルを使いやすくする
  • 使い慣れた Ollama ワークフローを引き続き使用できます

現地モデルとの違い

对比项 本地模型 云模型
运行位置 本机 云端
硬件要求
延迟 更低 受网络影响
隐私性 更强 请求会发送到云端

プライバシー、低遅延、オフライン使用を重視する場合は、ローカル モデルの方が適しています。
ローカルのハードウェアでは十分ではないが、より大規模なモデルを体験したい場合は、クラウド モデルの方が便利です。

クラウドモデルを特定する方法

現在の Ollama クラウド モデルには通常、サフィックス -cloud が付いています。次に例を示します。

1
gpt-oss:120b-cloud

利用可能なモデルのリストは変更される可能性があります。Ollamaの公式ページを参照してください。

使用方法

まずログインしてください:

1
ollama signin

ログイン後、クラウド モデルを直接実行します。

1
ollama run gpt-oss:120b-cloud

コードから呼び出している場合は、API キーを構成することもできます。

1
export OLLAMA_API_KEY=your_api_key

Python の例:

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
import os
from ollama import Client

client = Client(
    host="https://ollama.com",
    headers={"Authorization": "Bearer " + os.environ["OLLAMA_API_KEY"]},
)

messages = [
    {"role": "user", "content": "为什么天空是蓝色的?"}
]

for part in client.chat("gpt-oss:120b-cloud", messages=messages, stream=True):
    print(part["message"]["content"], end="", flush=True)

まとめ

Ollama クラウド モデルは、次の一文で理解できます。

コマンドは基本的に同じままですが、モデルはローカルで実行されなくなります。

コンピューターで大規模なモデルを実行できないが、引き続き Ollama を使用してモデルを呼び出したい場合、クラウド モデルは非常に簡単なソリューションです。

记录并分享
Hugo で構築されています。
テーマ StackJimmy によって設計されています。