<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>VLLM on KnightLi的博客</title>
        <link>https://www.knightli.com/zh-tw/tags/vllm/</link>
        <description>Recent content in VLLM on KnightLi的博客</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>zh-tw</language>
        <lastBuildDate>Fri, 10 Apr 2026 22:54:17 +0800</lastBuildDate><atom:link href="https://www.knightli.com/zh-tw/tags/vllm/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>Gemma 4 本地調用指南：從一鍵啟動到開發整合</title>
        <link>https://www.knightli.com/zh-tw/2026/04/10/gemma4-local-runtime-options/</link>
        <pubDate>Fri, 10 Apr 2026 22:54:17 +0800</pubDate>
        
        <guid>https://www.knightli.com/zh-tw/2026/04/10/gemma4-local-runtime-options/</guid>
        <description>&lt;p&gt;如果你想在本地調用 Gemma 4，可以依需求從以下四種主流方案中選擇。&lt;/p&gt;
&lt;h2 id=&#34;1-最快上手ollama推薦&#34;&gt;1) 最快上手：Ollama（推薦）
&lt;/h2&gt;&lt;p&gt;這是門檻最低的方式，適合快速測試、日常對話與本地 API 調用。&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;ollama run gemma4
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;特點：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;支援 Win/Mac/Linux&lt;/li&gt;
&lt;li&gt;自動處理硬體加速&lt;/li&gt;
&lt;li&gt;提供相容 OpenAI 風格的本地 API&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;2-圖形介面lm-studio--unsloth-studio&#34;&gt;2) 圖形介面：LM Studio / Unsloth Studio
&lt;/h2&gt;&lt;p&gt;如果你偏好桌面 GUI（像 ChatGPT）：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;LM Studio：可直接搜尋與下載 Hugging Face 上的 Gemma 4 量化模型（如 4-bit、8-bit），並查看資源占用。&lt;/li&gt;
&lt;li&gt;Unsloth Studio：除推理外，也支援低顯存微調；對 6GB-8GB 顯存更友善。&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;3-低配與深度控制llamacpp&#34;&gt;3) 低配與深度控制：llama.cpp
&lt;/h2&gt;&lt;p&gt;適合舊機、純 CPU 場景，或希望細調推理參數的使用者。&lt;/p&gt;
&lt;p&gt;你可以使用 &lt;code&gt;.gguf&lt;/code&gt; 模型檔配合量化版本，在更低硬體門檻下運行 Gemma 4。&lt;/p&gt;
&lt;h2 id=&#34;4-開發者整合transformers--vllm&#34;&gt;4) 開發者整合：Transformers / vLLM
&lt;/h2&gt;&lt;p&gt;如果你要把 Gemma 4 接進自己的應用：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Transformers：適合 Python 專案直接載入模型&lt;/li&gt;
&lt;li&gt;vLLM：適合高效能 GPU 與高吞吐推理服務&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;快速選型&#34;&gt;快速選型
&lt;/h2&gt;&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;需求&lt;/th&gt;
          &lt;th&gt;推薦工具&lt;/th&gt;
          &lt;th&gt;硬體門檻&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;我只想先跑起來&lt;/td&gt;
          &lt;td&gt;Ollama&lt;/td&gt;
          &lt;td&gt;低（自動適配）&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;我想用圖形介面&lt;/td&gt;
          &lt;td&gt;LM Studio&lt;/td&gt;
          &lt;td&gt;中&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;顯存很吃緊（6GB-8GB）&lt;/td&gt;
          &lt;td&gt;Unsloth / llama.cpp&lt;/td&gt;
          &lt;td&gt;低&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;我要做本地 AI 應用開發&lt;/td&gt;
          &lt;td&gt;Ollama / Transformers / vLLM&lt;/td&gt;
          &lt;td&gt;中到高&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;我要做微調訓練&lt;/td&gt;
          &lt;td&gt;Unsloth Studio&lt;/td&gt;
          &lt;td&gt;中到高&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;模型尺寸建議&#34;&gt;模型尺寸建議
&lt;/h2&gt;&lt;p&gt;Gemma 4 有多種尺寸（如 E2B、E4B、31B）。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;一般筆電建議先用量化後的 E2B / E4B&lt;/li&gt;
&lt;li&gt;顯存充足後再嘗試更大版本&lt;/li&gt;
&lt;/ul&gt;
</description>
        </item>
        
    </channel>
</rss>
