<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>LM Studio on KnightLi的博客</title>
        <link>https://www.knightli.com/zh-tw/tags/lm-studio/</link>
        <description>Recent content in LM Studio on KnightLi的博客</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>zh-tw</language>
        <lastBuildDate>Wed, 08 Apr 2026 18:42:00 +0800</lastBuildDate><atom:link href="https://www.knightli.com/zh-tw/tags/lm-studio/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>樹莓派 5 跑 Gemma 4 實測：可行，但回應較慢</title>
        <link>https://www.knightli.com/zh-tw/2026/04/08/gemma4-on-raspberry-pi5-benchmark/</link>
        <pubDate>Wed, 08 Apr 2026 18:42:00 +0800</pubDate>
        
        <guid>https://www.knightli.com/zh-tw/2026/04/08/gemma4-on-raspberry-pi5-benchmark/</guid>
        <description>&lt;p&gt;我做了一次偏極限的嘗試：在 &lt;code&gt;Raspberry Pi 5（8GB RAM）&lt;/code&gt; 上運行 Gemma 4。目標不是大模型版本，而是最小體量的 &lt;code&gt;E2B&lt;/code&gt;。&lt;/p&gt;
&lt;p&gt;結論先說：能跑、能用，但更適合低互動頻率場景，不適合高即時要求的對話體驗。&lt;/p&gt;
&lt;h2 id=&#34;測試環境&#34;&gt;測試環境
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;設備：Raspberry Pi 5（4 核 CPU，8GB RAM）&lt;/li&gt;
&lt;li&gt;系統：Ubuntu Server（無圖形介面）&lt;/li&gt;
&lt;li&gt;存取方式：SSH&lt;/li&gt;
&lt;li&gt;模型運行方式：LM Studio CLI（僅命令列模式）&lt;/li&gt;
&lt;li&gt;模型：Gemma 4 E2B（約 4.5GB）&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;第-1-步安裝並啟動-lm-studio-cli&#34;&gt;第 1 步：安裝並啟動 LM Studio CLI
&lt;/h2&gt;&lt;p&gt;我在樹莓派上安裝了 LM Studio 的 CLI 版本，然後啟動服務並查看可用命令。&lt;/p&gt;
&lt;p&gt;由於是純命令列環境，這種僅命令列部署方式非常適合樹莓派。&lt;/p&gt;
&lt;h2 id=&#34;第-2-步把模型儲存切到-ssd&#34;&gt;第 2 步：把模型儲存切到 SSD
&lt;/h2&gt;&lt;p&gt;為了避免頻繁讀寫 SD 卡，我把模型下載目錄改到了外接 SSD。&lt;/p&gt;
&lt;p&gt;樹莓派 5 接 SSD 的體驗明顯比早期機型更實用，長期運行本地模型建議優先使用 SSD。&lt;/p&gt;
&lt;h2 id=&#34;第-3-步下載並載入-gemma-4-e2b&#34;&gt;第 3 步：下載並載入 Gemma 4 E2B
&lt;/h2&gt;&lt;p&gt;下載完成後，模型可以正常載入進記憶體。&lt;/p&gt;
&lt;p&gt;按官方資訊，Gemma 4 系列具備：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;面向 Agent 場景的工具呼叫能力（function calling）&lt;/li&gt;
&lt;li&gt;多模態能力（含影像/影片；小模型也具備語音相關能力）&lt;/li&gt;
&lt;li&gt;&lt;code&gt;128K&lt;/code&gt; 上下文視窗&lt;/li&gt;
&lt;li&gt;Apache 2.0 授權（可商用）&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;從樹莓派的硬體條件看，E2B 這一檔更適合先試起來。&lt;/p&gt;
&lt;h2 id=&#34;第-4-步啟動-api-並開放區域網路存取&#34;&gt;第 4 步：啟動 API 並開放區域網路存取
&lt;/h2&gt;&lt;p&gt;模型載入後，我先在本機連接埠啟動 API（&lt;code&gt;4000&lt;/code&gt;），並透過 HTTP 請求確認模型清單可返回。&lt;/p&gt;
&lt;p&gt;問題在於：預設只監聽本機，區域網路其他設備無法直接存取。&lt;/p&gt;
&lt;p&gt;因為啟動參數裡不能直接設定 host，我用了 &lt;code&gt;socat&lt;/code&gt; 做連接埠轉發，把樹莓派外部連接埠請求橋接到 LM Studio 內部連接埠，實現區域網路存取。&lt;/p&gt;
&lt;p&gt;結果是可行的：我在同一區域網路的 MacBook 上能成功請求並拿到模型清單。&lt;/p&gt;
&lt;h2 id=&#34;第-5-步接入編輯器zed&#34;&gt;第 5 步：接入編輯器（Zed）
&lt;/h2&gt;&lt;p&gt;LM Studio 的本地服務相容 OpenAI API 形態，因此多數支援自訂 &lt;code&gt;base_url&lt;/code&gt; 的工具都可以直接接入。&lt;/p&gt;
&lt;p&gt;我在 Zed 裡新增了一個 LLM provider，指向樹莓派上的 Gemma 4 實例，隨後在編輯器內聊天測試通過。&lt;/p&gt;
&lt;h2 id=&#34;實際可用性判斷&#34;&gt;實際可用性判斷
&lt;/h2&gt;&lt;p&gt;這套方案適合：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;本地自動化腳本&lt;/li&gt;
&lt;li&gt;低併發、低即時性要求的輔助任務&lt;/li&gt;
&lt;li&gt;個人學習與邊緣設備實驗&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;不太適合：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;高頻互動聊天&lt;/li&gt;
&lt;li&gt;對回應延遲敏感的開發協作場景&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;結論&#34;&gt;結論
&lt;/h2&gt;&lt;p&gt;在 &lt;code&gt;Raspberry Pi 5&lt;/code&gt; 上運行 Gemma 4（E2B）是可行的，而且實際效果比預期更好。&lt;/p&gt;
&lt;p&gt;如果你的目標是「能離線跑、能接工具、能完成輕中量任務」，這條路線值得嘗試；如果目標是流暢即時互動，仍建議上更強硬體。&lt;/p&gt;
&lt;h2 id=&#34;相關文章&#34;&gt;相關文章
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://www.knightli.com/zh-tw/2026/04/05/google-gemma-4-model-comparison/&#34; &gt;Google Gemma 4 模型對比：2B/4B/26B/31B 怎麼選？&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://www.knightli.com/zh-tw/2026/04/08/android-gemma4-install-run-guide/&#34; &gt;在 Android 上安裝並運行 Gemma 4：完整上手指南&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://www.knightli.com/zh-tw/2026/04/08/run-gemma4-on-laptop/&#34; &gt;如何在筆記型電腦上運行 Gemma 4：5 分鐘本地部署指南&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://www.knightli.com/zh-tw/2026/04/08/openclaw-connect-gemma4-local/&#34; &gt;OpenClaw 對接本地 Gemma 4：完整配置指南&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
</description>
        </item>
        
    </channel>
</rss>
