Windows 用 WSL + Ollama 本地部署 Hermes Agent,並接入 Telegram

整理一套適合 Windows 使用者的 Hermes Agent 本地部署流程:先安裝 WSL 和 Ubuntu,再裝 Ollama、Gemma 4,並完成 Hermes Agent 與 Telegram 的基礎接入。

如果你想在 Windows 上盡量低門檻地跑 Hermes Agent,一個比較順手的路徑是:

  • 宿主系統繼續用 Windows
  • WSL 裡跑 Ubuntu
  • Ollama 提供本地模型
  • Hermes Agent 直接連接本地 Ollama 介面

這樣做的好處是環境相對乾淨,命令大多按 Linux 方式執行,同時又不需要單獨準備一台 Linux 機器。

整體流程

這套部署可以拆成 4 步:

  1. 啟用 WSL 並安裝 Ubuntu
  2. 在 Ubuntu 裡補齊 Python、Node.js、Git 等執行環境
  3. 安裝 Ollama 並拉取本地模型
  4. 安裝 Hermes Agent,再接入 Telegram

如果你只想先把 Hermes Agent 跑起來,其實做到第 3 步就已經很接近完成了。

1. 安裝 WSL 和 Ubuntu

在管理員權限的 PowerShell 裡執行:

1
wsl --install

安裝完成後重新啟動電腦,然後繼續安裝 Ubuntu:

1
wsl --install -d Ubuntu

之後打開 WSL 裡的 Ubuntu,後續命令基本都在這裡執行。

2. 更新 Ubuntu,並安裝基礎環境

先更新系統:

1
2
sudo apt update
sudo apt upgrade -y

然後安裝 Python、解壓工具、Node.js 和 Git。

安裝 Python

1
sudo apt install python3-pip python3-venv -y

安裝 zstd

1
sudo apt install -y zstd

安裝 Node.js

1
2
curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -
sudo apt install -y nodejs

安裝 Git

1
2
sudo apt update
sudo apt install -y git

安裝完成後可以順手檢查一下:

1
2
3
node -v
npm -v
git --version

3. 安裝 Ollama,並拉取 Gemma 4

安裝 Ollama:

1
curl -fsSL https://ollama.com/install.sh | sh

如果你打算給 Hermes Agent 配一個本地模型,可以直接從 Gemma 4 開始。

例如:

1
ollama run gemma4:e4b

如果機器資源更弱,也可以試:

1
ollama run gemma4:e2b

更大的版本還有:

1
2
ollama run gemma4:26b
ollama run gemma4:31b

對大多數 Windows + WSL 的普通機器來說,gemma4:e4b 通常是更實際的起點。

4. 安裝並配置 Hermes Agent

安裝命令:

1
curl -fsSL https://raw.githubusercontent.com/NousResearch/hermes-agent/main/scripts/install.sh | bash

安裝完成後,給它指定 Ollama 的本地介面:

1
http://127.0.0.1:11434

模型名填你本地實際在用的那個,例如:

1
gemma4:e4b

如果安裝腳本要求刷新 shell,可以執行:

1
source ~/.bashrc

Hermes Agent 常用命令

平時最常用的是下面幾個:

啟動

1
hermes

重新進入配置

1
hermes setup

配置聊天平台閘道

1
hermes setup gateway

更新

1
hermes update

接入 Telegram 的基礎步驟

如果你要讓 Hermes Agent 透過 Telegram 收發訊息,核心還是先跑一遍:

1
hermes setup gateway

然後準備 Telegram 端需要的兩個東西:

  • BotFather 建立機器人
  • @userinfobot 取得你的 User ID

拿到這些基礎資訊後,再按 Hermes Agent 的閘道配置繼續填入即可。

這套方案適合什麼人

這套方式比較適合下面幾類使用者:

  • 平時主力系統就是 Windows
  • 不想單獨折騰完整 Linux 主機
  • 想先把本地 Agent 跑通,再慢慢擴展聊天平台接入
  • 希望優先用本地模型,不依賴雲端 API

如果你只是想本地體驗一個 Agent,而不是一開始就做複雜生產部署,這條路線已經足夠實用。

需要注意的幾個點

  • WSL 本質上還是一層相容環境,極端場景下穩定性未必和原生 Linux 完全一樣
  • 大模型能不能跑得順,最終還是取決於你的記憶體、顯存和 CPU / GPU 條件
  • gemma4:e4b 雖然是比較現實的起點,但具體體驗還是要看機器配置
  • Hermes Agent 的聊天平台接入屬於「能力擴展」,先把本地模型鏈路跑通,再加 Telegram,會更穩

結論

如果你想在 Windows 上盡量簡單地本地部署 Hermes Agent,比較順的順序就是:

WSL -> Ubuntu -> Ollama -> Gemma 4 -> Hermes Agent -> Telegram

先把本地模型跑通,再做閘道接入,成功率會高很多。對大多數使用者來說,這比一上來就堆很多元件更容易排錯,也更適合後續繼續擴展。

原文參考

本文根據下列頁面內容整理並改寫:

记录并分享
使用 Hugo 建立
主題 StackJimmy 設計