如何在筆記型電腦上運行 Gemma 4:5 分鐘本地部署指南

透過 Ollama 在 Mac、Windows 與 Linux 筆記型電腦上快速運行 Gemma 4,並附上模型選型與效能建議。

如果你想在筆記型電腦上本地運行 Gemma 4,Ollama 是目前最省事的方式之一。即使不折騰複雜環境,通常 5 分鐘左右也能跑起來。

第 1 步:安裝 Ollama

  1. 打開 https://ollama.com,下載對應系統的安裝包。
  2. 按系統完成安裝:
  • macOS:拖到 Applications
  • Windows:執行 .exe 安裝程式。
  • Linux:使用官網提供的安裝腳本。

安裝完成後,Ollama 會以背景服務形式運行。除初次安裝外,日常可以只用簡單命令。

第 2 步:下載 Gemma 4 模型

打開終端機,執行:

1
ollama pull gemma4:4b

如果你的機器性能更強,可以改成 12b27b。下載完成後,模型會保存在本地。

查看已下載模型:

1
ollama list

第 3 步:啟動模型

1
ollama run gemma4:4b

這會在終端機打開互動式對話。輸入問題後按 Enter 即可;結束會話可輸入:

1
/bye

如果你更偏好網頁聊天介面,可以搭配 Open WebUI 使用。它可以把 Ollama 包裝成瀏覽器端 UI,通常透過 Docker 幾分鐘即可完成配置。

筆記型電腦效能優化建議

  • Apple Silicon(M2/M3/M4):預設走 Metal,加速效果通常很好,12B 也有不錯體驗。
  • NVIDIA 顯示卡:檢測到相容 GPU 時會自動使用 CUDA,建議提前更新驅動。
  • 僅 CPU 推理:可以運行,但大模型會明顯變慢;多數 CPU-only 場景建議優先 4B
  • 釋放記憶體:載入大模型前盡量關閉占記憶體應用。經驗上每 10 億參數大約需要 0.5GB 到 1GB 記憶體。

模型怎麼選

  • Gemma 4 1B:適合輕量問答、基礎摘要、快速查詢;複雜推理能力有限。
  • Gemma 4 4B:適合多數日常任務(寫作輔助、程式輔助、資料整理),速度與品質平衡較好。
  • Gemma 4 12B:適合更長上下文與更複雜任務,在程式與推理場景更穩。
  • Gemma 4 27B:適合高要求任務,效果更接近雲端大模型,但對硬體要求明顯更高。

相關文章

记录并分享
使用 Hugo 建立
主題 StackJimmy 設計