Ollama 雲模型是什麼,怎麼用

簡要說明 Ollama 雲模型是什麼、和本地模型的區別,以及如何透過命令列或 API 呼叫。

如果你平時用 Ollama 跑本地模型,應該很容易理解雲模型。

區別只有一個核心點:
本地模型是在你的電腦上推理,雲模型是在 Ollama 的雲端推理,再把結果回傳給你。

雲模型是什麼

Ollama 雲模型保留了 Ollama 的呼叫方式,但把計算位置從本地換到了雲端。

這樣做的好處是:

  • 本地硬體壓力更小
  • 更容易使用本地機器跑不動的大模型
  • 仍然可以沿用熟悉的 Ollama 工作流

和本地模型的區別

對比項 本地模型 雲模型
運行位置 本機 雲端
硬體要求
延遲 更低 受網路影響
隱私性 更強 請求會發送到雲端

如果你更在意隱私、低延遲和離線使用,本地模型更適合。
如果你本地硬體不夠,但又想體驗更大的模型,雲模型更方便。

怎麼識別雲模型

目前 Ollama 的雲模型一般會帶 -cloud 後綴,例如:

1
gpt-oss:120b-cloud

可用模型列表可能會變化,實際以 Ollama 官方頁面為準。

怎麼用

先登入:

1
ollama signin

登入完成後,直接運行雲模型:

1
ollama run gpt-oss:120b-cloud

如果你是在程式裡呼叫,也可以配置 API Key:

1
export OLLAMA_API_KEY=your_api_key

Python 示例:

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
import os
from ollama import Client

client = Client(
    host="https://ollama.com",
    headers={"Authorization": "Bearer " + os.environ["OLLAMA_API_KEY"]},
)

messages = [
    {"role": "user", "content": "為什麼天空是藍色的?"}
]

for part in client.chat("gpt-oss:120b-cloud", messages=messages, stream=True):
    print(part["message"]["content"], end="", flush=True)

小結

Ollama 雲模型可以理解成一句話:

命令基本沒變,只是模型不在你本地跑了。

如果你的電腦帶不動大模型,但你又想繼續用 Ollama 的方式呼叫模型,雲模型就是一個很直接的方案。

记录并分享
使用 Hugo 建立
主題 StackJimmy 設計