普段 Ollama を使用してローカル モデルを実行している場合は、クラウド モデルを簡単に理解できるはずです。
主要な相違点は 1 つだけです。
ローカル モデルはユーザーのコンピューター上で推論され、クラウド モデルは Ollama のクラウド上で推論され、結果が返されます。
クラウドモデルとは何ですか
Ollama クラウド モデルは、Ollama の呼び出し方法を保持しますが、コンピューティングの場所をローカルからクラウドに変更します。
これを行うことの利点は次のとおりです。
- ローカルハードウェアへの負担が軽減される
- ローカルマシンでは実行できない大規模なモデルを使いやすくする
- 使い慣れた Ollama ワークフローを引き続き使用できます
現地モデルとの違い
| 对比项 | 本地模型 | 云模型 |
|---|---|---|
| 运行位置 | 本机 | 云端 |
| 硬件要求 | 高 | 低 |
| 延迟 | 更低 | 受网络影响 |
| 隐私性 | 更强 | 请求会发送到云端 |
プライバシー、低遅延、オフライン使用を重視する場合は、ローカル モデルの方が適しています。
ローカルのハードウェアでは十分ではないが、より大規模なモデルを体験したい場合は、クラウド モデルの方が便利です。
クラウドモデルを特定する方法
現在の Ollama クラウド モデルには通常、サフィックス -cloud が付いています。次に例を示します。
|
|
利用可能なモデルのリストは変更される可能性があります。Ollamaの公式ページを参照してください。
使用方法
まずログインしてください:
|
|
ログイン後、クラウド モデルを直接実行します。
|
|
コードから呼び出している場合は、API キーを構成することもできます。
|
|
Python の例:
|
|
まとめ
Ollama クラウド モデルは、次の一文で理解できます。
コマンドは基本的に同じままですが、モデルはローカルで実行されなくなります。
コンピューターで大規模なモデルを実行できないが、引き続き Ollama を使用してモデルを呼び出したい場合、クラウド モデルは非常に簡単なソリューションです。