Si usa llama-cli para descargar y ejecutar un modelo directamente desde Hugging Face, por ejemplo:
|
|
esto utiliza el soporte de descarga de Hugging Face integrado en llama.cpp. Las compilaciones recientes de llama.cpp almacenan modelos descargados con -hf en el directorio de caché estándar de Hugging Face Hub.
Ubicaciones de caché predeterminadas
La ubicación del caché utilizada por llama-cli -hf se controla primero mediante la variable de entorno LLAMA_CACHE. Si LLAMA_CACHE no está configurado, llama.cpp verifica las variables de caché de Hugging Face como HF_HUB_CACHE, HUGGINGFACE_HUB_CACHE y HF_HOME.
Si no se establece ninguna de esas variables, las rutas predeterminadas comunes son:
| Sistema | Directorio de caché predeterminado |
|---|---|
| Linux | ~/.cache/huggingface/hub |
| MacOS | ~/.cache/huggingface/hub |
| Ventanas | %PERFIL DE USUARIO%\.cache\huggingface\hub |
En Windows, %USERPROFILE% normalmente se expande a:
|
|
Entonces el directorio de caché predeterminado es aproximadamente:
|
|
Cómo cambiar el directorio de caché llama-cli
Configure LLAMA_CACHE si desea almacenar los modelos descargados en un disco específico o en una carpeta específica. También puedes seguir la convención de Hugging Face y configurar HF_HOME; en ese caso, el directorio de caché del concentrador será $HF_HOME/hub.
Ejemplo de CMD temporal de Windows:
|
|
Ejemplo de PowerShell temporal:
|
|
Ejemplo temporal de Linux/macOS:
|
|
Resumen
llama-cli -hf ...usa la lógica de descarga dellama.cpp, pero las compilaciones recientes utilizan de forma predeterminada el caché de Hugging Face Hub.- Valor predeterminado de Linux/macOS:
~/.cache/huggingface/hub - Valor predeterminado de Windows:
%USERPROFILE%\.cache\huggingface\hub - Para cambiar la ubicación, configure
LLAMA_CACHEo configureHF_HOME/HF_HUB_CACHE