llama-cli を使って Hugging Face から直接モデルをダウンロードして実行する場合、たとえば次のように実行します。
|
|
これは llama.cpp に組み込まれている Hugging Face ダウンロード機能です。新しい llama.cpp では、-hf でダウンロードしたモデルは標準の Hugging Face Hub キャッシュディレクトリに保存されます。
デフォルトのキャッシュ場所
llama-cli -hf でダウンロードしたモデルのキャッシュ場所は、まず LLAMA_CACHE 環境変数で制御されます。LLAMA_CACHE が設定されていない場合は、HF_HUB_CACHE、HUGGINGFACE_HUB_CACHE、HF_HOME などの Hugging Face 関連のキャッシュ変数が確認されます。
これらの変数がどれも設定されていない場合、主なデフォルトパスは次のとおりです。
| システム | デフォルトキャッシュディレクトリ |
|---|---|
| Linux | ~/.cache/huggingface/hub |
| macOS | ~/.cache/huggingface/hub |
| Windows | %USERPROFILE%\.cache\huggingface\hub |
Windows では、%USERPROFILE% は通常次の場所を指します。
|
|
そのため、デフォルトのキャッシュディレクトリはおおよそ次のようになります。
|
|
llama-cli のキャッシュディレクトリを変更する方法
モデルキャッシュを指定したディスクやディレクトリに置きたい場合は、LLAMA_CACHE を設定します。Hugging Face の慣例に合わせて HF_HOME を設定することもできます。その場合、実際の Hub キャッシュディレクトリは $HF_HOME/hub になります。
Windows CMD の一時設定例:
|
|
PowerShell の一時設定例:
|
|
Linux / macOS の一時設定例:
|
|
まとめ
llama-cli -hf ...はllama.cppのダウンロード機構を使いますが、新しいバージョンでは標準の Hugging Face Hub キャッシュがデフォルトです。- Linux / macOS デフォルト:
~/.cache/huggingface/hub - Windows デフォルト:
%USERPROFILE%\.cache\huggingface\hub - 場所を変更したい場合:
LLAMA_CACHE、またはHF_HOME/HF_HUB_CACHEを設定する