Si cierto modelo no tiene una versión preparada en la biblioteca oficial de Ollama, o si quieres usar un archivo GGUF específico de Hugging Face, puedes descargarlo manualmente e importarlo después en Ollama.
Paso 1: descargar el archivo GGUF desde Hugging Face
Primero busca en Hugging Face el archivo GGUF correspondiente al modelo objetivo. Normalmente verás varias versiones cuantizadas, por ejemplo:
Q4_K_MQ5_K_MQ8_0
Qué versión elegir depende de tu VRAM, memoria y del equilibrio que quieras entre velocidad y calidad. Después de descargarlo, coloca el archivo .gguf en un directorio fijo para referenciarlo directamente en el Modelfile.
Paso 2: escribir el Modelfile
Crea un archivo Modelfile en el mismo directorio que el modelo. La forma mínima es:
|
|
Si el nombre del archivo es distinto, cámbialo por el nombre real, por ejemplo:
|
|
Si solo quieres ponerlo en marcha primero, normalmente esta línea FROM basta.
Paso 3: importar a Ollama
Después ejecuta:
|
|
myModelNamees el nombre local del modelo que quieres usar dentro de Ollama-f Modelfileindica que se crea el modelo desde este archivo de configuración
Cuando la creación termine correctamente, ese archivo GGUF se convertirá en un modelo local que puede llamarse directamente.
Paso 4: ejecutar el modelo
Después de crearlo, ejecútalo directamente:
|
|
A partir de ahí, su uso es básicamente igual al de un modelo descargado con ollama pull.
Cómo ver el Modelfile de un modelo existente
Si no estás seguro de cómo escribir el Modelfile, puedes mirar directamente la configuración de un modelo existente:
|
|
Este comando imprimirá el contenido del Modelfile de llama3.2, útil como referencia:
- Cómo debería escribirse
FROM - Cómo se organizan la plantilla y el system prompt
- Cómo se declaran los parámetros
Cuándo conviene esta ruta
Estos escenarios son adecuados para importar manualmente desde Hugging Face:
- La biblioteca oficial de Ollama todavía no tiene el modelo que necesitas
- Quieres usar una versión cuantizada concreta
- Ya descargaste manualmente el archivo
GGUF - Quieres controlar con más detalle la forma de empaquetar el modelo
Si ya existe una versión oficial lista, usar pull suele ser más sencillo; pero cuando necesitas una cuantización específica o empaquetado personalizado, GGUF + Modelfile es más flexible.
Precauciones habituales
- La ruta después de
FROMdebe coincidir con la ubicación real del archivo.gguf. - Si el nombre de archivo contiene espacios o caracteres especiales, se recomienda renombrarlo a algo más simple.
- Las distintas cuantizaciones
GGUFinfluyen mucho en memoria y velocidad; importarlo con éxito no significa que vaya a ejecutarse con fluidez. - Si el modelo es de chat, normalmente tendrás que ajustar después la plantilla de prompt según su formato para obtener resultados más estables.
Conclusión
Descargar un archivo GGUF desde Hugging Face e importarlo en Ollama no es complicado. Prepara el archivo del modelo, escribe un Modelfile mínimo y ejecuta ollama create; con eso puedes conectar modelos GGUF de terceros a Ollama.