<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>RTX 4060 on KnightLi的博客</title>
        <link>https://www.knightli.com/tags/rtx-4060/</link>
        <description>Recent content in RTX 4060 on KnightLi的博客</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>zh-cn</language>
        <lastBuildDate>Fri, 08 May 2026 13:38:47 +0800</lastBuildDate><atom:link href="https://www.knightli.com/tags/rtx-4060/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>笔记本 RTX 4060 8GB 适合跑哪些本地 AI 模型</title>
        <link>https://www.knightli.com/2026/05/08/laptop-rtx-4060-8gb-local-ai-models/</link>
        <pubDate>Fri, 08 May 2026 13:38:47 +0800</pubDate>
        
        <guid>https://www.knightli.com/2026/05/08/laptop-rtx-4060-8gb-local-ai-models/</guid>
        <description>&lt;p&gt;笔记本 RTX 4060 8GB 可以玩本地 AI，但它的边界很清楚：核心不是“能不能启动”，而是“显存是否溢出”。移动版 RTX 4060 还会受到整机功耗、散热、显存带宽和厂商调校影响，同样是 8GB 显存，不同笔记本的持续性能可能差不少。&lt;/p&gt;
&lt;p&gt;在 2026 年的软件环境下，8GB 显存仍然是本地 AI 的入门基准线。只要选择合适的量化模型和工具链，它可以流畅运行 3B-8B 级 LLM、SDXL、SD 1.5、部分 FLUX 量化工作流、Whisper 转写和图像特征提取。反过来，如果强行跑 14B 以上 LLM、未量化大模型或高显存图像工作流，就很容易掉进系统内存，速度会明显崩掉。&lt;/p&gt;
&lt;p&gt;一句话建议：笔记本 4060 8GB 不要追求“大而全”，优先选择小模型、量化版和低显存工作流。&lt;/p&gt;
&lt;h2 id=&#34;先看显存预算&#34;&gt;先看显存预算
&lt;/h2&gt;&lt;p&gt;Windows 11 桌面、浏览器、驱动、后台程序会先吃掉一部分显存。实际留给本地 AI 的显存通常不是完整 8GB，而更接近 6.5GB-7.2GB。&lt;/p&gt;
&lt;p&gt;因此模型选择要留余量：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;LLM：优先 3B-8B，使用 4-bit 量化。&lt;/li&gt;
&lt;li&gt;图像生成：优先 SDXL、SD 1.5、FLUX GGUF/NF4 低显存工作流。&lt;/li&gt;
&lt;li&gt;多模态：优先 4B 左右的轻量模型。&lt;/li&gt;
&lt;li&gt;语音转写：Whisper large-v3 可以跑，但注意批量任务发热。&lt;/li&gt;
&lt;li&gt;图像索引：CLIP、ViT 这类特征提取非常适合 4060。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;如果显存溢出到系统内存，推理速度可能从“可用”变成“等得烦”。所以宁可选小一点的模型，也不要让显存长期贴边。&lt;/p&gt;
&lt;h2 id=&#34;llm优先-3b-8b-量化模型&#34;&gt;LLM：优先 3B-8B 量化模型
&lt;/h2&gt;&lt;p&gt;本地聊天和文本推理建议使用 Ollama、LM Studio、koboldcpp、llama.cpp 或其他支持 GGUF 的前端。8GB 显存下，最舒服的区间是 4-bit 量化的 3B-8B 模型。&lt;/p&gt;
&lt;h3 id=&#34;全能轻量gemma-4-e4b&#34;&gt;全能轻量：Gemma 4 E4B
&lt;/h3&gt;&lt;p&gt;Gemma 4 E4B 是 Google 2026 年推出的 Gemma 4 系列小模型之一，定位适合本地和端侧使用。它的优势是模型规模较小，适合 8GB 显存设备承担日常问答、总结、轻量多模态和低成本推理。&lt;/p&gt;
&lt;p&gt;在笔记本 RTX 4060 上，建议优先找官方或社区提供的量化版本。不要一开始就追求最高精度权重，先用 4-bit 或适合本地推理的格式确认速度、显存占用和回答质量。&lt;/p&gt;
&lt;p&gt;适合任务：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;日常问答。&lt;/li&gt;
&lt;li&gt;摘要和改写。&lt;/li&gt;
&lt;li&gt;轻量资料整理。&lt;/li&gt;
&lt;li&gt;简单代码解释。&lt;/li&gt;
&lt;li&gt;图像理解类轻任务。&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id=&#34;推理与长文本deepseek-r1-distill-7b8bqwen-3-8b&#34;&gt;推理与长文本：DeepSeek R1 Distill 7B/8B、Qwen 3 8B
&lt;/h3&gt;&lt;p&gt;如果你更看重逻辑、数学、复杂分析和长文本处理，可以考虑 DeepSeek R1 distill 系列的 7B/8B 模型，或 Qwen 3 8B 的量化版本。&lt;/p&gt;
&lt;p&gt;8B 级模型使用 &lt;code&gt;Q4_K_M&lt;/code&gt; 这类 4-bit 量化时，通常能压到 8GB 显存可承受范围内。实际速度会受上下文长度、后端、驱动、笔记本功耗模式影响。经验上，短上下文聊天比较流畅；上下文拉长后，速度和显存压力都会明显上升。&lt;/p&gt;
&lt;p&gt;适合任务：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;逻辑推理。&lt;/li&gt;
&lt;li&gt;数学题。&lt;/li&gt;
&lt;li&gt;中文长文本分析。&lt;/li&gt;
&lt;li&gt;代码审查草稿。&lt;/li&gt;
&lt;li&gt;结构化信息抽取。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;不建议一开始就跑 14B、32B 或更大的模型。它们即使能通过 CPU offload 启动，体验也往往不如更小的全 GPU 模型。&lt;/p&gt;
&lt;h3 id=&#34;代码辅助qwen-25-coder-3b7b&#34;&gt;代码辅助：Qwen 2.5 Coder 3B/7B
&lt;/h3&gt;&lt;p&gt;代码场景推荐 Qwen 2.5 Coder 3B 或 7B。3B 版本速度快，适合本地实时补全、函数解释和小范围代码生成；7B 版本理解能力更好，但显存和响应时间更高。&lt;/p&gt;
&lt;p&gt;如果你想接到 IDE 插件或本地 agent，3B 版本通常更舒服。对于一次性代码生成、单文件重构、脚本编写，可以再切到 7B 量化版本。&lt;/p&gt;
&lt;p&gt;建议：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;实时补全：3B。&lt;/li&gt;
&lt;li&gt;问答和解释：3B 或 7B。&lt;/li&gt;
&lt;li&gt;小型重构：7B 量化。&lt;/li&gt;
&lt;li&gt;大型项目架构分析：不要期待 8GB 显存单机完成全部上下文。&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;图像生成sdxl-稳flux-要量化&#34;&gt;图像生成：SDXL 稳，FLUX 要量化
&lt;/h2&gt;&lt;p&gt;RTX 4060 8GB 跑图像生成完全可用，但要分模型。&lt;/p&gt;
&lt;h3 id=&#34;sd-15-和-sdxl&#34;&gt;SD 1.5 和 SDXL
&lt;/h3&gt;&lt;p&gt;SD 1.5 对 8GB 显存非常友好，出图速度快，插件生态成熟。SDXL 对显存要求更高，但在 4060 8GB 上仍然属于可用范围。&lt;/p&gt;
&lt;p&gt;推荐工具：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;ComfyUI&lt;/li&gt;
&lt;li&gt;Stable Diffusion WebUI Forge&lt;/li&gt;
&lt;li&gt;Fooocus&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;SD 1.5 适合快速出图、LoRA、ControlNet、老模型生态。SDXL 更适合通用品质和更自然的图像结果。对新手来说，SDXL + Forge 或 ComfyUI 是比较稳的起点。&lt;/p&gt;
&lt;h3 id=&#34;flux1-schnell&#34;&gt;FLUX.1 schnell
&lt;/h3&gt;&lt;p&gt;FLUX 的画质和提示词理解更强，但原始模型显存压力大。8GB 显存设备建议使用 GGUF、NF4、FP8 等低显存方案，并搭配 ComfyUI-GGUF 或相应的低显存工作流。&lt;/p&gt;
&lt;p&gt;可行策略：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;使用 FLUX.1 schnell 的 GGUF Q4/Q5 版本。&lt;/li&gt;
&lt;li&gt;降低分辨率或批量大小。&lt;/li&gt;
&lt;li&gt;在 ComfyUI 中使用低显存节点或 &lt;code&gt;--lowvram&lt;/code&gt;。&lt;/li&gt;
&lt;li&gt;不要同时挂太多 LoRA、ControlNet 和高清修复。&lt;/li&gt;
&lt;li&gt;每次改工作流后观察显存是否释放。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;1024px 出图可以尝试，但不要用桌面 16GB/24GB 显卡的工作流照搬。4060 8GB 能跑 FLUX，不代表每个 FLUX 工作流都适合它。&lt;/p&gt;
&lt;h2 id=&#34;多模态和效率工具&#34;&gt;多模态和效率工具
&lt;/h2&gt;&lt;p&gt;除了聊天和生图，4060 8GB 也很适合做一些“工具型 AI”任务。&lt;/p&gt;
&lt;h3 id=&#34;whisper-large-v3&#34;&gt;Whisper large-v3
&lt;/h3&gt;&lt;p&gt;Whisper large-v3 可以用于语音转文字。RTX 4060 处理普通音频通常很快，适合会议录音、课程音频、视频字幕和素材整理。&lt;/p&gt;
&lt;p&gt;如果是长音频批量转写，建议注意两点：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;开启笔记本性能模式。&lt;/li&gt;
&lt;li&gt;保持散热，不要长时间闷在低转速模式。&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id=&#34;clip--vit-图像索引&#34;&gt;CLIP / ViT 图像索引
&lt;/h3&gt;&lt;p&gt;如果你要做照片检索系统，RTX 4060 8GB 很合适。CLIP、ViT、SigLIP 这类图像特征模型对显存要求不算夸张，扫描几千张照片的向量通常很快。&lt;/p&gt;
&lt;p&gt;典型流程：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;用 CLIP/ViT/SigLIP 提取图片 embedding。&lt;/li&gt;
&lt;li&gt;保存到本地向量库或 SQLite。&lt;/li&gt;
&lt;li&gt;用文本或图片做相似度检索。&lt;/li&gt;
&lt;li&gt;再用小型 LLM 生成标签、描述或相册摘要。&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;这种工作负载比跑大 LLM 更适合 8GB 显卡，因为它更偏批处理和特征提取，显存压力可控，收益也很明显。&lt;/p&gt;
&lt;h2 id=&#34;推荐组合&#34;&gt;推荐组合
&lt;/h2&gt;&lt;p&gt;如果只想本机聊天：&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;3
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;4
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-text&#34; data-lang=&#34;text&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;Ollama / LM Studio
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;+ Gemma 4 E4B 量化版
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;+ DeepSeek R1 Distill 7B/8B Q4
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;+ Qwen 3 8B Q4
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;如果想做代码辅助：&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;3
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-text&#34; data-lang=&#34;text&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;Qwen 2.5 Coder 3B
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;+ Qwen 2.5 Coder 7B Q4
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;+ Continue / Cline / 本地 OpenAI-compatible server
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;如果想做图像生成：&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;3
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;4
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-text&#34; data-lang=&#34;text&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;ComfyUI / Forge
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;+ SDXL
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;+ SD 1.5
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;+ FLUX.1 schnell GGUF Q4/Q5
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;如果想做照片检索：&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;3
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-text&#34; data-lang=&#34;text&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;CLIP / SigLIP / ViT
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;+ SQLite / FAISS / LanceDB
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;+ Gemma 4 E4B 或 Phi-4 Mini 做文本整理
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;h2 id=&#34;避坑指南&#34;&gt;避坑指南
&lt;/h2&gt;&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;场景&lt;/th&gt;
          &lt;th&gt;建议&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;大模型&lt;/td&gt;
          &lt;td&gt;不要强行跑 14B 以上模型，除非接受明显降速&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;量化&lt;/td&gt;
          &lt;td&gt;LLM 优先选 &lt;code&gt;Q4_K_M&lt;/code&gt;，再按效果尝试 Q5&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;显存&lt;/td&gt;
          &lt;td&gt;用任务管理器或 &lt;code&gt;nvidia-smi&lt;/code&gt; 观察显存占用&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;散热&lt;/td&gt;
          &lt;td&gt;跑生图、转写、批处理时开启性能模式&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;分辨率&lt;/td&gt;
          &lt;td&gt;图像生成先从 768px 或 1024px 单张开始&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;浏览器&lt;/td&gt;
          &lt;td&gt;跑模型时少开占显存的浏览器标签&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;驱动&lt;/td&gt;
          &lt;td&gt;保持 NVIDIA 驱动较新，避免旧驱动导致后端异常&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;工作流&lt;/td&gt;
          &lt;td&gt;不要直接照搬 16GB/24GB 显卡的 ComfyUI 工作流&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;如果显存占用长期超过 7.5GB，就要主动降模型、降量化精度、减少上下文、关掉其他程序，或者启用低显存模式。最差的情况不是“跑不起来”，而是跑起来后每一步都在 CPU 和内存之间来回搬数据。&lt;/p&gt;
&lt;h2 id=&#34;我的建议&#34;&gt;我的建议
&lt;/h2&gt;&lt;p&gt;笔记本 RTX 4060 8GB 的最佳定位是“高性价比本地 AI 入门平台”。&lt;/p&gt;
&lt;p&gt;它适合：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;3B-8B 本地 LLM。&lt;/li&gt;
&lt;li&gt;代码辅助小模型。&lt;/li&gt;
&lt;li&gt;SDXL 和 SD 1.5。&lt;/li&gt;
&lt;li&gt;FLUX 量化体验。&lt;/li&gt;
&lt;li&gt;Whisper 转写。&lt;/li&gt;
&lt;li&gt;图像向量索引。&lt;/li&gt;
&lt;li&gt;照片管理和本地资料整理。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;它不适合：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;长期跑 14B/32B 大模型。&lt;/li&gt;
&lt;li&gt;未量化大模型。&lt;/li&gt;
&lt;li&gt;高分辨率批量 FLUX 工作流。&lt;/li&gt;
&lt;li&gt;大规模视频生成。&lt;/li&gt;
&lt;li&gt;多模型同时常驻。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;如果你的目标是继续做照片检索系统，4060 8GB 很合适。推荐把 GPU 用在 CLIP/SigLIP 特征提取和小模型标签生成上，再用 SQLite、FAISS 或 LanceDB 做索引。LLM 选择 Gemma 4 E4B、Phi-4 Mini、Qwen 2.5 Coder 3B/7B 这类小模型，整体效率会比硬上大模型更好。&lt;/p&gt;
&lt;h2 id=&#34;参考资料&#34;&gt;参考资料
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://deepmind.google/models/gemma/gemma-4/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Google DeepMind: Gemma 4&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://huggingface.co/google/gemma-4-E4B&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;google/gemma-4-E4B&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://arxiv.org/abs/2501.12948&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;DeepSeek-R1 论文&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://comfyui-wiki.com/en/tutorial/advanced/image/flux/flux-1-dev-t2i&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;ComfyUI FLUX.1 GGUF 指南&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://huggingface.co/vava22684/FLUX.1-schnell-gguf&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;FLUX.1 schnell GGUF&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
</description>
        </item>
        
    </channel>
</rss>
