Qué son los modelos en la nube de Ollama y cómo usarlos

Una explicación breve de qué son los modelos en la nube de Ollama, en qué se diferencian de los modelos locales y cómo llamarlos desde la línea de comandos o la API.

Si usas normalmente Ollama para ejecutar modelos locales, entender los modelos en la nube será sencillo.

La diferencia central es solo una:
los modelos locales hacen inferencia en tu ordenador; los modelos en la nube hacen inferencia en la nube de Ollama y devuelven el resultado.

Qué es un modelo en la nube

Los modelos en la nube de Ollama conservan la forma de llamada de Ollama, pero cambian la ubicación del cálculo de local a la nube.

Las ventajas son:

  • Menor presión sobre el hardware local
  • Más fácil usar modelos grandes que tu máquina local no puede mover
  • Se mantiene el flujo de trabajo familiar de Ollama

Diferencia frente a modelos locales

Comparación Modelo local Modelo en la nube
Ubicación de ejecución Máquina local Nube
Requisitos de hardware Altos Bajos
Latencia Más baja Depende de la red
Privacidad Más fuerte La solicitud se envía a la nube

Si te importa más la privacidad, baja latencia y uso offline, el modelo local es más adecuado.
Si tu hardware local no alcanza pero quieres probar modelos más grandes, el modelo en la nube es más cómodo.

Cómo reconocer modelos en la nube

Actualmente, los modelos en la nube de Ollama suelen llevar el sufijo -cloud, por ejemplo:

1
gpt-oss:120b-cloud

La lista de modelos disponibles puede cambiar; toma la página oficial de Ollama como referencia final.

Cómo usarlos

Primero inicia sesión:

1
ollama signin

Después ejecuta directamente el modelo en la nube:

1
ollama run gpt-oss:120b-cloud

Si lo llamas desde código, también puedes configurar API Key:

1
export OLLAMA_API_KEY=your_api_key

Ejemplo en Python:

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
import os
from ollama import Client

client = Client(
    host="https://ollama.com",
    headers={"Authorization": "Bearer " + os.environ["OLLAMA_API_KEY"]},
)

messages = [
    {"role": "user", "content": "为什么天空是蓝色的?"}
]

for part in client.chat("gpt-oss:120b-cloud", messages=messages, stream=True):
    print(part["message"]["content"], end="", flush=True)

Resumen

Los modelos en la nube de Ollama pueden entenderse en una frase:

el comando casi no cambia; solo que el modelo ya no corre en tu máquina local.

Si tu ordenador no puede mover modelos grandes pero quieres seguir llamando modelos al estilo Ollama, los modelos en la nube son una opción directa.

记录并分享
Creado con Hugo
Tema Stack diseñado por Jimmy