<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>LM Studio on KnightLi的博客</title>
        <link>https://www.knightli.com/tags/lm-studio/</link>
        <description>Recent content in LM Studio on KnightLi的博客</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>zh-cn</language>
        <lastBuildDate>Wed, 08 Apr 2026 18:42:00 +0800</lastBuildDate><atom:link href="https://www.knightli.com/tags/lm-studio/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>树莓派 5 跑 Gemma 4 实测：可行，但响应较慢</title>
        <link>https://www.knightli.com/2026/04/08/gemma4-on-raspberry-pi5-benchmark/</link>
        <pubDate>Wed, 08 Apr 2026 18:42:00 +0800</pubDate>
        
        <guid>https://www.knightli.com/2026/04/08/gemma4-on-raspberry-pi5-benchmark/</guid>
        <description>&lt;p&gt;一次偏极限的尝试：在 &lt;code&gt;Raspberry Pi 5（8GB RAM）&lt;/code&gt; 上运行 Gemma 4。目标不是大模型版本，而是最小体量的 &lt;code&gt;E2B&lt;/code&gt;。&lt;/p&gt;
&lt;p&gt;结论先说：能跑、能用，但更适合低交互频率场景，不适合高实时要求的对话体验。&lt;/p&gt;
&lt;h2 id=&#34;测试环境&#34;&gt;测试环境
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;设备：Raspberry Pi 5（4 核 CPU，8GB RAM）&lt;/li&gt;
&lt;li&gt;系统：Ubuntu Server（无图形界面）&lt;/li&gt;
&lt;li&gt;访问方式：SSH&lt;/li&gt;
&lt;li&gt;模型运行方式：LM Studio CLI（仅命令行模式）&lt;/li&gt;
&lt;li&gt;模型：Gemma 4 E2B（约 4.5GB）&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;第-1-步安装并启动-lm-studio-cli&#34;&gt;第 1 步：安装并启动 LM Studio CLI
&lt;/h2&gt;&lt;p&gt;安装 LM Studio 的 CLI 版本，然后启动服务并查看可用命令。&lt;/p&gt;
&lt;p&gt;由于是纯命令行环境，这种仅命令行部署方式非常适合树莓派。&lt;/p&gt;
&lt;h2 id=&#34;第-2-步把模型存储切到-ssd&#34;&gt;第 2 步：把模型存储切到 SSD
&lt;/h2&gt;&lt;p&gt;为了避免频繁读写 SD 卡，我将模型下载目录改到了外接 SSD。&lt;/p&gt;
&lt;p&gt;树莓派 5 接 SSD 的体验明显比早期机型更实用，长期运行本地模型建议优先使用 SSD。&lt;/p&gt;
&lt;h2 id=&#34;第-3-步下载并加载-gemma-4-e2b&#34;&gt;第 3 步：下载并加载 Gemma 4 E2B
&lt;/h2&gt;&lt;p&gt;下载完成后，模型可以正常加载进内存。&lt;/p&gt;
&lt;p&gt;按官方信息，Gemma 4 系列具备：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;面向 Agent 场景的工具调用能力（function calling）&lt;/li&gt;
&lt;li&gt;多模态能力（含图像/视频；小模型也具备语音相关能力）&lt;/li&gt;
&lt;li&gt;&lt;code&gt;128K&lt;/code&gt; 上下文窗口&lt;/li&gt;
&lt;li&gt;Apache 2.0 许可（可商用）&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;从树莓派的硬件条件看，E2B 这一档更适合先试起来。&lt;/p&gt;
&lt;h2 id=&#34;第-4-步启动-api-并开放局域网访问&#34;&gt;第 4 步：启动 API 并开放局域网访问
&lt;/h2&gt;&lt;p&gt;模型加载后，我先在本机端口启动 API（&lt;code&gt;4000&lt;/code&gt;），并通过 HTTP 请求确认模型列表可返回。&lt;/p&gt;
&lt;p&gt;问题在于：默认只监听本机，局域网其他设备无法直接访问。&lt;/p&gt;
&lt;p&gt;因为启动参数里不能直接设置 host，我用了 &lt;code&gt;socat&lt;/code&gt; 做端口转发，把树莓派外部端口请求桥接到 LM Studio 内部端口，实现局域网访问。&lt;/p&gt;
&lt;p&gt;结果是可行的：我在同一局域网的 MacBook 上能成功请求并拿到模型列表。&lt;/p&gt;
&lt;h2 id=&#34;第-5-步接入编辑器zed&#34;&gt;第 5 步：接入编辑器（Zed）
&lt;/h2&gt;&lt;p&gt;LM Studio 的本地服务兼容 OpenAI API 形态，因此多数支持自定义 &lt;code&gt;base_url&lt;/code&gt; 的工具都可以直接接入。&lt;/p&gt;
&lt;p&gt;我在 Zed 里新增了一个 LLM provider，指向树莓派上的 Gemma 4 实例，随后在编辑器内聊天测试通过。&lt;/p&gt;
&lt;h2 id=&#34;实际可用性判断&#34;&gt;实际可用性判断
&lt;/h2&gt;&lt;p&gt;这套方案适合：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;本地自动化脚本&lt;/li&gt;
&lt;li&gt;低并发、低实时性要求的辅助任务&lt;/li&gt;
&lt;li&gt;个人学习和边缘设备实验&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;不太适合：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;高频交互聊天&lt;/li&gt;
&lt;li&gt;对响应延迟敏感的开发协作场景&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;结论&#34;&gt;结论
&lt;/h2&gt;&lt;p&gt;在 &lt;code&gt;Raspberry Pi 5&lt;/code&gt; 上运行 Gemma 4（E2B）是可行的，而且实际效果比预期更好。&lt;/p&gt;
&lt;p&gt;如果你的目标是“能离线跑、能接工具、能完成轻中量任务”，这条路线值得尝试；如果目标是流畅实时交互，仍建议上更强硬件。&lt;/p&gt;
&lt;h2 id=&#34;相关文章&#34;&gt;相关文章
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://www.knightli.com/2026/04/05/google-gemma-4-model-comparison/&#34; &gt;谷歌 Gemma 4 模型对比：2B/4B/26B/31B 怎么选？&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://www.knightli.com/2026/04/08/android-gemma4-install-run-guide/&#34; &gt;Android 上安装并运行 Gemma 4：完整上手指南&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://www.knightli.com/2026/04/08/run-gemma4-on-laptop/&#34; &gt;如何在笔记本电脑上运行 Gemma 4：5 分钟本地部署指南&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://www.knightli.com/2026/04/08/openclaw-connect-gemma4-local/&#34; &gt;OpenClaw 对接本地 Gemma 4：完整配置指南&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
</description>
        </item>
        
    </channel>
</rss>
