如果你使用的是 llama-cli 直接從 Hugging Face 下載並執行模型,例如:
|
|
這是 llama.cpp 內建的 Hugging Face 下載能力。新版 llama.cpp 會把 -hf 下載的模型放進標準 Hugging Face Hub 快取目錄。
預設快取位置
llama-cli -hf 下載的模型快取位置優先由 LLAMA_CACHE 環境變數控制。如果沒有設定 LLAMA_CACHE,則會繼續檢查 Hugging Face 相關快取變數,例如 HF_HUB_CACHE、HUGGINGFACE_HUB_CACHE 和 HF_HOME。
如果這些變數都沒有設定,常見預設路徑如下:
| 系統 | 預設快取目錄 |
|---|---|
| Linux | ~/.cache/huggingface/hub |
| macOS | ~/.cache/huggingface/hub |
| Windows | %USERPROFILE%\.cache\huggingface\hub |
在 Windows 上,%USERPROFILE% 通常對應:
|
|
所以預設快取目錄大致是:
|
|
想修改 llama-cli 的快取目錄怎麼辦
可以設定 LLAMA_CACHE,把模型快取放到指定磁碟或目錄。也可以依照 Hugging Face 的習慣設定 HF_HOME,此時實際 Hub 快取目錄會是 $HF_HOME/hub。
Windows CMD 暫時設定範例:
|
|
PowerShell 暫時設定範例:
|
|
Linux / macOS 暫時設定範例:
|
|
小結
llama-cli -hf ...使用的是llama.cpp下載邏輯,但新版預設會落到 Hugging Face Hub 快取。- Linux / macOS 預設:
~/.cache/huggingface/hub - Windows 預設:
%USERPROFILE%\.cache\huggingface\hub - 想換目錄:設定
LLAMA_CACHE,或設定HF_HOME/HF_HUB_CACHE