如果你想在筆記型電腦上本地運行 Gemma 4,Ollama 是目前最省事的方式之一。即使不折騰複雜環境,通常 5 分鐘左右也能跑起來。
第 1 步:安裝 Ollama
- 打開
https://ollama.com,下載對應系統的安裝包。 - 按系統完成安裝:
- macOS:拖到
Applications。 - Windows:執行
.exe安裝程式。 - Linux:使用官網提供的安裝腳本。
安裝完成後,Ollama 會以背景服務形式運行。除初次安裝外,日常可以只用簡單命令。
第 2 步:下載 Gemma 4 模型
打開終端機,執行:
|
|
如果你的機器性能更強,可以改成 12b 或 27b。下載完成後,模型會保存在本地。
查看已下載模型:
|
|
第 3 步:啟動模型
|
|
這會在終端機打開互動式對話。輸入問題後按 Enter 即可;結束會話可輸入:
|
|
如果你更偏好網頁聊天介面,可以搭配 Open WebUI 使用。它可以把 Ollama 包裝成瀏覽器端 UI,通常透過 Docker 幾分鐘即可完成配置。
筆記型電腦效能優化建議
- Apple Silicon(M2/M3/M4):預設走 Metal,加速效果通常很好,
12B也有不錯體驗。 - NVIDIA 顯示卡:檢測到相容 GPU 時會自動使用 CUDA,建議提前更新驅動。
- 僅 CPU 推理:可以運行,但大模型會明顯變慢;多數 CPU-only 場景建議優先
4B。 - 釋放記憶體:載入大模型前盡量關閉占記憶體應用。經驗上每 10 億參數大約需要
0.5GB 到 1GB記憶體。
模型怎麼選
Gemma 4 1B:適合輕量問答、基礎摘要、快速查詢;複雜推理能力有限。Gemma 4 4B:適合多數日常任務(寫作輔助、程式輔助、資料整理),速度與品質平衡較好。Gemma 4 12B:適合更長上下文與更複雜任務,在程式與推理場景更穩。Gemma 4 27B:適合高要求任務,效果更接近雲端大模型,但對硬體要求明顯更高。