Tags
第 14 頁
本地大模型
llama-quantize 怎麼用:GGUF 模型量化入門
llama.cpp 如何從 Hugging Face 取得 GGUF 模型
Gemma-4-31B-it 裡的 it 是什麼意思
Hugging Face 選擇 Llama 的 GGUF 模型時,量化怎麼選:從 Q8 到 Q2 的實用建議
Windows 區域網存取 Ollama API 設定指南
Gemma 4 本地調用指南:從一鍵啟動到開發整合
Ollama 雲模型是什麼,怎麼用
從 Hugging Face 下載 GGUF 模型並匯入 Ollama
Ollama 下載模型 pull 速度很慢的排查與解決辦法
樹莓派 5 跑 Gemma 4 實測:可行,但回應較慢
OpenClaw 對接本地 Gemma 4:完整配置指南
如何在筆記型電腦上運行 Gemma 4:5 分鐘本地部署指南
Android 上安裝並運行 Gemma 4:完整上手指南
Google Gemma 4 模型對比:2B/4B/26B/31B 怎麼選?