¿Dónde guarda llama-cli -hf los modelos de caras abrazadas de forma predeterminada?

Una nota rápida sobre dónde llama-cli -hf almacena los modelos GGUF descargados de Hugging Face y cómo cambiar el directorio de caché con LLAMA_CACHE o las variables de caché de Hugging Face.

Si usa llama-cli para descargar y ejecutar un modelo directamente desde Hugging Face, por ejemplo:

1
llama-cli -hf unsloth/gemma-4-E4B-it-GGUF

esto utiliza el soporte de descarga de Hugging Face integrado en llama.cpp. Las compilaciones recientes de llama.cpp almacenan modelos descargados con -hf en el directorio de caché estándar de Hugging Face Hub.

Ubicaciones de caché predeterminadas

La ubicación del caché utilizada por llama-cli -hf se controla primero mediante la variable de entorno LLAMA_CACHE. Si LLAMA_CACHE no está configurado, llama.cpp verifica las variables de caché de Hugging Face como HF_HUB_CACHE, HUGGINGFACE_HUB_CACHE y HF_HOME.

Si no se establece ninguna de esas variables, las rutas predeterminadas comunes son:

Sistema Directorio de caché predeterminado
Linux ~/.cache/huggingface/hub
MacOS ~/.cache/huggingface/hub
Ventanas %PERFIL DE USUARIO%\.cache\huggingface\hub

En Windows, %USERPROFILE% normalmente se expande a:

1
C:\Users\用户名

Entonces el directorio de caché predeterminado es aproximadamente:

1
C:\Users\用户名\.cache\huggingface\hub

Cómo cambiar el directorio de caché llama-cli

Configure LLAMA_CACHE si desea almacenar los modelos descargados en un disco específico o en una carpeta específica. También puedes seguir la convención de Hugging Face y configurar HF_HOME; en ese caso, el directorio de caché del concentrador será $HF_HOME/hub.

Ejemplo de CMD temporal de Windows:

1
2
set LLAMA_CACHE=D:\models\llama-cache
llama-cli -hf unsloth/gemma-4-E4B-it-GGUF

Ejemplo de PowerShell temporal:

1
2
$env:LLAMA_CACHE="D:\models\llama-cache"
llama-cli -hf unsloth/gemma-4-E4B-it-GGUF

Ejemplo temporal de Linux/macOS:

1
2
export LLAMA_CACHE=/data/models/llama-cache
llama-cli -hf unsloth/gemma-4-E4B-it-GGUF

Resumen

  • llama-cli -hf ... usa la lógica de descarga de llama.cpp, pero las compilaciones recientes utilizan de forma predeterminada el caché de Hugging Face Hub.
  • Valor predeterminado de Linux/macOS: ~/.cache/huggingface/hub
  • Valor predeterminado de Windows: %USERPROFILE%\.cache\huggingface\hub
  • Para cambiar la ubicación, configure LLAMA_CACHE o configure HF_HOME / HF_HUB_CACHE
记录并分享
Creado con Hugo
Tema Stack diseñado por Jimmy