SulphurAI 在 Hugging Face 上发布了 Sulphur-2-base。从模型卡信息看,Sulphur 2 是一个基于 LTX 2.3 的视频生成模型,定位是 uncensored video generation model,原生支持文生视频、图生视频,也兼容 LTX 2.3 的其他格式。
模型地址:https://huggingface.co/SulphurAI/Sulphur-2-base
Sulphur 2 是什么
Sulphur 2 的重点不是做通用聊天,而是围绕视频生成工作流提供模型权重和相关工具。模型卡里给出的核心信息可以概括为几点:
- 基于 LTX 2.3。
- 支持 text-to-video 和 image-to-video。
- 提供用于提示词优化的 prompt enhancer。
- Hugging Face 页面提供 Diffusers、llama.cpp、Ollama、LM Studio、Jan 等入口。
- 页面显示模型文件包含 GGUF 相关内容,方便部分本地工具加载。
也就是说,它更像是一个面向视频生成玩家和工作流作者的模型发布,而不是普通用户开箱即用的网页产品。
Sulphur 2 和 LTX 2.3 的关系
理解 Sulphur 2,最好先把它放回 LTX 2.3 的生态里看。
LTX 2.3 是底层视频生成模型路线,决定了它支持哪些输入形式、模型组件和工作流结构。Sulphur 2 则是在这个基础上发布的一个变体,重点是把文生视频、图生视频和相关工作流整合到一起。
所以 Sulphur 2 不是一个完全独立的新工具,也不是一个普通聊天模型。它更像是 LTX 2.3 生态里的一个模型包:你仍然需要选择合适的前端、节点、权重版本和参数,才能真正跑出视频。
这也解释了为什么它的使用门槛比网页生成工具高。网页工具把模型、参数、显存调度和失败重试都藏在后端;本地部署则需要自己处理这些细节。
为什么值得关注
LTX 系列本身就以高效视频生成受到关注,Sulphur 2 选择基于 LTX 2.3,意味着它天然更适合接入已有的 LTX 工作流。对 ComfyUI、Diffusers 或本地推理工具用户来说,这类模型的价值主要在于可控性和可改造性。
另一个看点是 prompt enhancer。视频生成对提示词非常敏感,同样的主体、镜头、动作、风格和质量描述,写法不同会明显影响结果。Sulphur 2 把提示词增强器一起放进生态里,说明作者希望用户不只是下载权重,还能更稳定地把普通描述扩展成适合模型理解的提示词。
模型卡里的使用建议
官方模型卡建议入门时下载 dev 版本,例如 fp8mixed 或 bf16,并搭配提供的 distill lora。需要注意的是,模型卡也提醒:如果使用 LoRA,就不要同时再加载完整模型的重复部分,避免工作流里同时叠加两套相同能力。
prompt enhancer 的使用方式更偏本地工具路线。模型卡提到,可以在 LM Studio 的模型目录里创建 Sulphur/promptenhancer 这样的目录结构,把 gguf 文件和 mmproj 文件放进去,然后加载提示词增强器。它不需要 system prompt,直接发送想增强的文本,也可以附带图像。
本地运行入口
Hugging Face 页面给出了一些常见工具入口。比如使用 llama.cpp 时,可以通过模型仓库启动本地服务:
|
|
也可以直接在终端运行:
|
|
使用 Ollama 的入口则是:
|
|
这些命令更像是 Hugging Face 自动生成的本地加载入口,实际能否顺利运行,还要看本机显存、模型文件版本、量化格式和对应工具的兼容性。视频生成模型通常比纯文本模型更吃资源,第一次尝试时建议先按模型卡推荐的版本和工作流走,不要一上来混用多个来源的权重。
推荐测试环境:ComfyUI / Diffusers / GGUF 怎么选
如果你只是想最快看到结果,优先看社区是否已经整理好 ComfyUI 工作流。ComfyUI 的好处是可视化强,模型、LoRA、采样器、分辨率、帧数和后处理节点都能摆在同一张图里,适合调试视频生成。
如果你更熟悉 Python,或者想把 Sulphur 2 接到自己的脚本里,Diffusers 会更适合。它的优点是可复现、可自动化,适合批量测试参数,也方便记录不同设置下的显存占用和生成耗时。
GGUF、llama.cpp、Ollama、LM Studio 这些入口更适合 prompt enhancer 或文本侧组件。不要看到 GGUF 就默认它能完整承担视频生成流程。视频模型通常还涉及视觉模型、VAE、采样流程和帧生成组件,GGUF 更多是本地加载和轻量化生态的一部分。
简单说:
- 新手先找 ComfyUI 工作流。
- 脚本用户用 Diffusers 做复现和批量测试。
- prompt enhancer 或文本增强器再看 GGUF / LM Studio / Ollama。
- 不确定时,优先按模型卡推荐的 dev 版本和 LoRA 搭配走。
8G 显存能不能跑?要看版本和工作流
8G 显存能不能跑 Sulphur 2,不能只看模型名字,要看具体版本、量化方式、分辨率、帧数、批量大小和工作流。
一般来说,视频生成比图片生成更吃显存,因为它不只是生成一张图,而是要处理多帧、时间一致性和视频相关的中间状态。即使模型本身有较轻的版本,工作流里叠加 LoRA、较高分辨率、较长帧数或额外后处理节点,也可能让 8G 显存很快爆掉。
如果只有 8G 显存,可以从这些方向降低压力:
- 优先尝试
fp8mixed、量化版本或社区整理的低显存工作流。 - 降低分辨率,先用小尺寸确认流程能跑通。
- 减少帧数,不要一开始就生成长视频。
- batch size 设为 1。
- 暂时关闭不必要的增强节点和后处理节点。
- 使用 CPU offload、低显存模式或框架提供的显存优化选项。
所以“8G 显存也能跑”更准确的说法是:在低显存版本、较低分辨率、较短帧数和精简工作流下,有机会跑通;但不适合直接期待高分辨率、长视频和复杂工作流。
prompt enhancer 怎么用
Sulphur 2 的模型卡特别提到 prompt enhancer。它的作用不是生成视频,而是把普通提示词改写成更适合模型理解的提示词。
视频提示词通常要同时描述主体、动作、镜头、场景、光线、风格和质量。如果只写一句很短的描述,模型可能抓不到重点。prompt enhancer 可以把简短描述扩展成更完整的提示词,让后续视频生成更稳定。
模型卡给出的思路是,在 LM Studio 的模型目录里创建 Sulphur/promptenhancer 目录,把对应的 gguf 和 mmproj 文件放进去,然后加载这个增强器。使用时不需要 system prompt,直接发送想增强的文本,也可以附带图像。
可以把它理解成一个提示词预处理工具:
|
|
如果你只是测试模型能不能跑,prompt enhancer 不是第一优先级。先把主工作流跑通,再用它改善提示词,会更容易定位问题。
本地部署常见失败原因
Sulphur 2 这类模型本地部署失败,通常不是一个原因造成的。比较常见的坑有这些:
- 模型版本和工作流不匹配,比如工作流要求 dev 版本,但实际下载了其他权重。
- LoRA 和完整模型重复加载,导致效果异常或显存占用过高。
- 显存不足,尤其是在高分辨率、长帧数、复杂节点下更明显。
- 工具版本太旧,ComfyUI 节点、Diffusers、Transformers 或 Accelerate 版本不兼容。
- 缺少 VAE、文本编码器、mmproj、prompt enhancer 等配套文件。
- 文件路径或目录结构不符合工具要求。
- 只复制 Hugging Face 页面上的命令,没有确认它对应的是视频生成主流程还是文本侧组件。
排查时建议按顺序来:先确认模型文件完整,再确认工作流要求的版本,然后降低分辨率和帧数,最后再逐步加 LoRA、prompt enhancer 和后处理节点。一次只改一个变量,最容易定位问题。
适合谁尝试
Sulphur 2 比较适合这几类用户:
- 已经在玩 LTX、ComfyUI、Diffusers 或本地视频生成工作流。
- 想尝试文生视频、图生视频,并能接受手动配置模型文件。
- 需要 uncensored 视频生成模型,且理解这类模型的使用边界。
- 想研究 prompt enhancer 如何改善视频提示词。
- 有足够显存或愿意尝试量化版本、本地推理工具。
如果只是想快速生成短视频,在线产品仍然更省心。Sulphur 2 更适合愿意折腾模型、节点、LoRA、提示词和本地环境的人。
使用时的注意点
第一,模型卡信息还在更新中。作者也提到 README 后续会补充更完整的设置说明和训练方式,所以具体工作流要以最新模型卡和文件列表为准。
第二,不要只看 Hugging Face 页面上的一条命令就判断它能直接跑起来。视频生成涉及主模型、VAE、LoRA、提示词增强器、采样参数、分辨率、帧数和显存占用,任何一个环节不匹配都可能失败。
第三,uncensored 模型并不等于可以无边界使用。生成内容仍然需要遵守所在平台、社区和法律规则,尤其是涉及真人、版权角色、未成年人、暴力或隐私内容时,更要谨慎。
小结
Sulphur 2 的定位很清楚:它不是一个聊天模型,而是一个面向 LTX 2.3 视频生成生态的模型发布。它的看点在于支持文生视频和图生视频,同时把 prompt enhancer、本地工具入口和推荐工作流放在一起。
对普通用户来说,它的门槛不低;对本地视频生成玩家来说,它值得加入待测试列表。真正决定体验的,还是具体工作流、显存配置、提示词质量,以及后续 README 和社区样例是否完善。
参考
- Hugging Face 模型页:https://huggingface.co/SulphurAI/Sulphur-2-base
- FreeDidi 参考页:https://www.freedidi.com/24142.html