Midjourney 2026 年 5 月 14 日的 Office Hours 信息里,最值得关注的不是单个模型参数,而是产品形态正在继续从“输入提示词生成图片”,向“更自然地组织创作工作流”移动。
这次内容来自一篇日文整理稿,记录了 Midjourney 团队近期问答中的多个方向:会话模式升级、AI 辅助开发、网站改版、SREF 和标签整理、Omni-reference、多角色一致性,以及团队内部如何使用 Midjourney。
如果只看一句话总结:Midjourney 正在让图片生成更像一个可对话、可整理、可持续迭代的创作系统。
会话模式变得更重要
这次更新里最直接的变化,是 Conversational Mode,也就是会话模式。
过去使用 Midjourney,很多操作仍然依赖参数和固定写法。你需要记住宽高比、图片参考、风格参考、模型参数等规则,再把它们写进 prompt 或界面设置里。
新的会话模式方向,是让用户用更自然的语言描述这些设置。
例如,用户可以通过语音或文字指定:
- 默认参数。
- 画面宽高比,例如
16:9。 - 图片参考。
- 风格参考,也就是
--sref。 - V7 里的 Omni-reference。
这说明 Midjourney 并不只是想提升生成质量,也在降低参数操作成本。
对普通用户来说,最大的变化是不用一直记命令。对重度用户来说,会话模式如果足够稳定,未来可能会变成“用自然语言调整生成设置”的入口。
AI 辅助开发正在改变 Midjourney 团队的迭代速度
另一个很有意思的点,是 Midjourney 团队自己也在大规模使用 AI 辅助开发。
原文提到,团队现在能更快修复小 bug、界面摩擦和工作流问题。甚至有用户通话中发现产品 bug,团队借助 AI 辅助实时修复,经过 review 后快速部署的例子。
这件事比“AI 帮工程师写代码”更值得细看。
它说明 AI 开发工具已经开始影响 AI 产品自己的迭代方式:
- 用户反馈可以更快进入修复流程。
- 小型体验问题更容易被处理。
- 工程师把更多精力放在架构、审查、设计决策和测试上。
- 产品团队可以更频繁地清理边缘问题。
Midjourney 这种产品有大量创作路径、参数组合、移动端体验、搜索和整理流程。很多问题不是“核心模型不会生成”,而是某个入口不顺、某个操作多一步、某个边缘状态不好用。
AI 辅助开发最适合加速这类小而多的改进。
网站改版重点是工作流,而不是砍功能
Office Hours 里还提到,Midjourney 网站正在进行较大规模的改版。
目标不是删掉复杂功能,而是让创作流程更直观,让新用户更容易上手,也让工具和功能组织得更清楚。
这点很关键。
Midjourney 的问题不是功能太少,而是功能越来越多之后,入口、收藏、整理、引用、探索和复用都变得复杂。对于轻度用户来说,难点是“我该从哪里开始”;对于重度用户来说,难点是“我如何管理大量风格、参考和实验结果”。
可能的发布策略包括:
- 新旧界面并行提供。
- 先做 alpha 测试。
- 分阶段迁移,避免影响重度用户。
这类策略说明团队知道 Midjourney 不是普通图片生成玩具。很多用户已经把它放进真实创作流程里,界面改变不能随便打断已有习惯。
SREF、风格和标签整理仍是痛点
SREF 和风格整理,是这次问答里很值得关注的部分。
用户希望有更好的整理系统,尤其是:
- 随机 SREF。
- 风格参考。
- 保存下来的美学方向。
- 标签和颜色标签。
- 更强的筛选、归类和复用能力。
但团队也提出了一个问题:如果当前文件夹系统已经支持一张图进入多个文件夹、无限文件夹数量、筛选和排序,那么标签到底提供了哪些文件夹不能解决的能力?
这个问题很现实。
很多产品加标签,是因为用户说想要标签。但标签系统一旦做不好,就会变成另一套混乱的分类。文件夹、标签、收藏、搜索、筛选、项目、风格库之间如果边界不清,用户反而更难管理。
所以 Midjourney 团队现在更想收集具体工作流案例:用户到底在哪个场景下需要标签?文件夹为什么不够?是为了快速组合风格,还是为了跨项目复用,还是为了按主题、色调、摄影风格、角色关系做筛选?
对 Midjourney 来说,整理系统可能和生成模型一样重要。因为一旦用户开始长期创作,真正难的不是生成一张图,而是管理上千张图、数百个风格方向和反复试验的结果。
Omni-reference 指向更复杂的角色控制
原文还提到,未来的 Omni-reference / subject reference 系统,可能支持同时处理多个角色参考,并更好地分离不同主体。
这正好对应 AI 图像生成的长期痛点:角色一致性和多角色关系。
单个角色保持一致已经不容易,多角色更难。常见问题包括:
- A 角色的特征跑到 B 角色身上。
- 多个人物之间身份混淆。
- 服装、发型、面部特征在不同图里不稳定。
- 参考图对整体风格影响过强,而不是只控制主体。
如果 Omni-reference 能更好地处理主体分离,那么 Midjourney 会更适合漫画、分镜、广告视觉、角色设定、游戏概念图和连续叙事。
这也是 V7 之后值得持续关注的方向。
Midjourney 正在重新理解 prompt
这次整理稿里还有一个很有意思的观点:语言是想象力的压缩层。
这句话很适合解释 Midjourney 的产品方向。
很多用户以为 AI 绘图的核心是写更长、更精确的 prompt。但实际创作里,图像参考、风格参考、moodboard、SREF、变体、重新生成和后期修图,往往比一段超长文本更有用。
Midjourney 团队成员 Duncan 的工作流也体现了这一点:他会把 Midjourney 当成 sketchbook,用 moodboard、SREF、少量文字、高 --r 再生成、强弱变体、Photoshop 修图和外部放大流程组合起来。
这说明 Midjourney 的成熟用户并不是只靠“神奇提示词”工作。
更真实的流程是:
- 用少量语言给方向。
- 用图片参考提供视觉语境。
- 用 SREF 收敛风格。
- 用大量变体探索空间。
- 用人工审美选择结果。
- 用外部工具做后期处理。
Prompt 仍然重要,但它不是全部。
对用户来说意味着什么
如果你只是偶尔生成图片,这次更新最直接的影响是会话模式更好用。未来你可能可以更自然地说出想要的比例、参考图、风格和参数,而不是记一堆命令。
如果你是重度用户,更值得关注的是三个方向。
第一,整理系统。
SREF、风格、文件夹、收藏和标签如何演进,会直接影响长期创作效率。
第二,网站改版。
新界面如果能把探索、整理、复用和导出串起来,Midjourney 会更像专业创作工具,而不是单一生成器。
第三,角色和主体参考。
Omni-reference 如果能稳定处理多角色和主体分离,会让 Midjourney 更适合连续项目,而不是只适合单张图。
小结
Midjourney 2026 年 5 月这次 Office Hours 的重点,不是某一个炫酷参数,而是产品正在继续向“创作系统”进化。
会话模式降低输入门槛,AI 辅助开发提高迭代速度,网站改版试图重组工作流,SREF 和标签讨论指向长期资产管理,Omni-reference 则关系到角色一致性和复杂主体控制。
对 AI 图像生成工具来说,模型能力当然重要。但当生成质量达到一定水平后,真正决定用户是否长期留下来的,往往是工作流、整理能力、可控性和迭代速度。
Midjourney 正在把这些部分补起来。