Si usas normalmente Ollama para ejecutar modelos locales, entender los modelos en la nube será sencillo.
La diferencia central es solo una:
los modelos locales hacen inferencia en tu ordenador; los modelos en la nube hacen inferencia en la nube de Ollama y devuelven el resultado.
Qué es un modelo en la nube
Los modelos en la nube de Ollama conservan la forma de llamada de Ollama, pero cambian la ubicación del cálculo de local a la nube.
Las ventajas son:
- Menor presión sobre el hardware local
- Más fácil usar modelos grandes que tu máquina local no puede mover
- Se mantiene el flujo de trabajo familiar de Ollama
Diferencia frente a modelos locales
| Comparación | Modelo local | Modelo en la nube |
|---|---|---|
| Ubicación de ejecución | Máquina local | Nube |
| Requisitos de hardware | Altos | Bajos |
| Latencia | Más baja | Depende de la red |
| Privacidad | Más fuerte | La solicitud se envía a la nube |
Si te importa más la privacidad, baja latencia y uso offline, el modelo local es más adecuado.
Si tu hardware local no alcanza pero quieres probar modelos más grandes, el modelo en la nube es más cómodo.
Cómo reconocer modelos en la nube
Actualmente, los modelos en la nube de Ollama suelen llevar el sufijo -cloud, por ejemplo:
|
|
La lista de modelos disponibles puede cambiar; toma la página oficial de Ollama como referencia final.
Cómo usarlos
Primero inicia sesión:
|
|
Después ejecuta directamente el modelo en la nube:
|
|
Si lo llamas desde código, también puedes configurar API Key:
|
|
Ejemplo en Python:
|
|
Resumen
Los modelos en la nube de Ollama pueden entenderse en una frase:
el comando casi no cambia; solo que el modelo ya no corre en tu máquina local.
Si tu ordenador no puede mover modelos grandes pero quieres seguir llamando modelos al estilo Ollama, los modelos en la nube son una opción directa.