Tags
13 páginas
Ollama
Modelos LLM locales recomendados para una GPU RTX 3060
Notas de Ollama Multi-GPU: agrupación de VRAM, selección de GPU y malentendidos comunes
Implemente el Agente Hermes localmente en Windows con WSL + Ollama y Connect Telegram
Qué son los modelos en la nube de Ollama y cómo usarlos
Descargar modelos GGUF desde Hugging Face e importarlos en Ollama
Diagnóstico y soluciones para descargas muy lentas con ollama pull
Conectar OpenClaw con Gemma 4 local: guía completa de configuración
Cómo ejecutar Gemma 4 en un portátil: guía de despliegue local en 5 minutos
Cómo comprobar si un modelo de Ollama ya se cargó en la GPU
Ubicación predeterminada de modelos de Ollama y método de migración (para evitar llenar la unidad C)
Desinstalar Ollama por completo en Linux (incluida la limpieza de residuos)
Explicación de la cuantificación de LLM: cómo elegir FP16, Q8, Q5, Q4 o Q2
Comparación de modelos Google Gemma 4: cómo elegir entre 2B/4B/26B/31B