llama-cli -hf でダウンロードした Hugging Face モデルのデフォルト保存先

llama-cli -hf で Hugging Face から GGUF モデルをダウンロードしたときのデフォルトキャッシュ場所と、LLAMA_CACHE または Hugging Face のキャッシュ変数による変更方法を整理します。

llama-cli を使って Hugging Face から直接モデルをダウンロードして実行する場合、たとえば次のように実行します。

1
llama-cli -hf unsloth/gemma-4-E4B-it-GGUF

これは llama.cpp に組み込まれている Hugging Face ダウンロード機能です。新しい llama.cpp では、-hf でダウンロードしたモデルは標準の Hugging Face Hub キャッシュディレクトリに保存されます。

デフォルトのキャッシュ場所

llama-cli -hf でダウンロードしたモデルのキャッシュ場所は、まず LLAMA_CACHE 環境変数で制御されます。LLAMA_CACHE が設定されていない場合は、HF_HUB_CACHEHUGGINGFACE_HUB_CACHEHF_HOME などの Hugging Face 関連のキャッシュ変数が確認されます。

これらの変数がどれも設定されていない場合、主なデフォルトパスは次のとおりです。

システム デフォルトキャッシュディレクトリ
Linux ~/.cache/huggingface/hub
macOS ~/.cache/huggingface/hub
Windows %USERPROFILE%\.cache\huggingface\hub

Windows では、%USERPROFILE% は通常次の場所を指します。

1
C:\Users\用户名

そのため、デフォルトのキャッシュディレクトリはおおよそ次のようになります。

1
C:\Users\用户名\.cache\huggingface\hub

llama-cli のキャッシュディレクトリを変更する方法

モデルキャッシュを指定したディスクやディレクトリに置きたい場合は、LLAMA_CACHE を設定します。Hugging Face の慣例に合わせて HF_HOME を設定することもできます。その場合、実際の Hub キャッシュディレクトリは $HF_HOME/hub になります。

Windows CMD の一時設定例:

1
2
set LLAMA_CACHE=D:\models\llama-cache
llama-cli -hf unsloth/gemma-4-E4B-it-GGUF

PowerShell の一時設定例:

1
2
$env:LLAMA_CACHE="D:\models\llama-cache"
llama-cli -hf unsloth/gemma-4-E4B-it-GGUF

Linux / macOS の一時設定例:

1
2
export LLAMA_CACHE=/data/models/llama-cache
llama-cli -hf unsloth/gemma-4-E4B-it-GGUF

まとめ

  • llama-cli -hf ...llama.cpp のダウンロード機構を使いますが、新しいバージョンでは標準の Hugging Face Hub キャッシュがデフォルトです。
  • Linux / macOS デフォルト:~/.cache/huggingface/hub
  • Windows デフォルト:%USERPROFILE%\.cache\huggingface\hub
  • 場所を変更したい場合:LLAMA_CACHE、または HF_HOME / HF_HUB_CACHE を設定する
记录并分享
Hugo で構築されています。
テーマ StackJimmy によって設計されています。