llama-cli -hf 下載 Hugging Face 模型預設儲存在哪裡

整理 llama-cli -hf 從 Hugging Face 下載 GGUF 模型後的預設快取位置,以及如何用 LLAMA_CACHE 或 Hugging Face 快取變數修改快取目錄。

如果你使用的是 llama-cli 直接從 Hugging Face 下載並執行模型,例如:

1
llama-cli -hf unsloth/gemma-4-E4B-it-GGUF

這是 llama.cpp 內建的 Hugging Face 下載能力。新版 llama.cpp 會把 -hf 下載的模型放進標準 Hugging Face Hub 快取目錄。

預設快取位置

llama-cli -hf 下載的模型快取位置優先由 LLAMA_CACHE 環境變數控制。如果沒有設定 LLAMA_CACHE,則會繼續檢查 Hugging Face 相關快取變數,例如 HF_HUB_CACHEHUGGINGFACE_HUB_CACHEHF_HOME

如果這些變數都沒有設定,常見預設路徑如下:

系統 預設快取目錄
Linux ~/.cache/huggingface/hub
macOS ~/.cache/huggingface/hub
Windows %USERPROFILE%\.cache\huggingface\hub

在 Windows 上,%USERPROFILE% 通常對應:

1
C:\Users\用户名

所以預設快取目錄大致是:

1
C:\Users\用户名\.cache\huggingface\hub

想修改 llama-cli 的快取目錄怎麼辦

可以設定 LLAMA_CACHE,把模型快取放到指定磁碟或目錄。也可以依照 Hugging Face 的習慣設定 HF_HOME,此時實際 Hub 快取目錄會是 $HF_HOME/hub

Windows CMD 暫時設定範例:

1
2
set LLAMA_CACHE=D:\models\llama-cache
llama-cli -hf unsloth/gemma-4-E4B-it-GGUF

PowerShell 暫時設定範例:

1
2
$env:LLAMA_CACHE="D:\models\llama-cache"
llama-cli -hf unsloth/gemma-4-E4B-it-GGUF

Linux / macOS 暫時設定範例:

1
2
export LLAMA_CACHE=/data/models/llama-cache
llama-cli -hf unsloth/gemma-4-E4B-it-GGUF

小結

  • llama-cli -hf ... 使用的是 llama.cpp 下載邏輯,但新版預設會落到 Hugging Face Hub 快取。
  • Linux / macOS 預設:~/.cache/huggingface/hub
  • Windows 預設:%USERPROFILE%\.cache\huggingface\hub
  • 想換目錄:設定 LLAMA_CACHE,或設定 HF_HOME / HF_HUB_CACHE
记录并分享
使用 Hugo 建立
主題 StackJimmy 設計