Cómo acceder a una API local de Ollama por LAN en Windows

Expón la API de Ollama a tu red local en Windows configurando el host, permitiendo puertos en el firewall y verificando con curl.

Si quieres que otros dispositivos de la misma LAN accedan a tu API local de Ollama, sigue estos pasos.

Configurar el host de escucha

Primero, configura Ollama para escuchar en todas las interfaces de red:

OLLAMA_HOST=0.0.0.0:11434

Abrir el firewall

En la configuración avanzada de Windows Firewall, crea una regla de entrada y permite el puerto objetivo, por ejemplo 8080:

  1. Pulsa Win + S, busca y abre “Windows Defender Firewall”.
  2. Haz clic en “Advanced settings”.
  3. Selecciona “Inbound Rules” -> “New Rule…”.
  4. Elige “Port” y haz clic en “Next”.
  5. Selecciona el protocolo, normalmente TCP, introduce el puerto en “Specific local ports”, por ejemplo 8080, y haz clic en “Next”.
  6. Elige “Allow the connection” y haz clic en “Next”.
  7. En “Profile”, selecciona Domain, Private y Public, y haz clic en “Next”.
  8. Pon un nombre a la regla, por ejemplo OpenPort8080, y haz clic en “Finish”.

Ejecutar Ollama

Ejecuta el modelo con Ollama.

Acceder al modelo mediante la API

1
2
3
4
curl http://192.168.x.xxx:11434/api/generate -d '{
  "model": "gemma4",
  "prompt": "¿Qué modelo es este?"
}'
记录并分享
Creado con Hugo
Tema Stack diseñado por Jimmy