<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>製品アップデート on KnightLiブログ</title>
        <link>https://www.knightli.com/ja/tags/%E8%A3%BD%E5%93%81%E3%82%A2%E3%83%83%E3%83%97%E3%83%87%E3%83%BC%E3%83%88/</link>
        <description>Recent content in 製品アップデート on KnightLiブログ</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>ja</language>
        <lastBuildDate>Sun, 17 May 2026 20:20:51 +0800</lastBuildDate><atom:link href="https://www.knightli.com/ja/tags/%E8%A3%BD%E5%93%81%E3%82%A2%E3%83%83%E3%83%97%E3%83%87%E3%83%BC%E3%83%88/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>Midjourney 2026年5月アップデート：会話モード、AI支援開発、SREF整理</title>
        <link>https://www.knightli.com/ja/2026/05/17/midjourney-2026-05-office-hours-conversational-mode/</link>
        <pubDate>Sun, 17 May 2026 20:20:51 +0800</pubDate>
        
        <guid>https://www.knightli.com/ja/2026/05/17/midjourney-2026-05-office-hours-conversational-mode/</guid>
        <description>&lt;p&gt;Midjourney 2026年5月14日の Office Hours で重要なのは、単一のモデルパラメータではない。プロダクトの形が「プロンプトを入力して画像を生成する」ものから、「より自然に創作ワークフローを組み立てる」ものへ進んでいることだ。&lt;/p&gt;
&lt;p&gt;今回の内容は、Midjourney チームの最近の Q&amp;amp;A をまとめた日本語記事に基づいている。扱われているのは、会話モードの強化、AI支援開発、サイト改修、SREF とタグ整理、Omni-reference、複数キャラクターの一貫性、そしてチーム内での Midjourney 利用だ。&lt;/p&gt;
&lt;p&gt;一言で言えば、Midjourney は画像生成を、会話でき、整理でき、継続的に反復できる創作システムに近づけようとしている。&lt;/p&gt;
&lt;h2 id=&#34;会話モードの重要性が増している&#34;&gt;会話モードの重要性が増している
&lt;/h2&gt;&lt;p&gt;今回もっとも直接的な変化は Conversational Mode、つまり会話モードだ。&lt;/p&gt;
&lt;p&gt;これまで Midjourney を使うには、多くの操作がパラメータや固定された書き方に依存していた。アスペクト比、画像参照、スタイル参照、モデルパラメータなどのルールを覚え、それを prompt や UI 設定に入れる必要があった。&lt;/p&gt;
&lt;p&gt;新しい会話モードの方向性は、こうした設定をより自然な言葉で指定できるようにすることだ。&lt;/p&gt;
&lt;p&gt;たとえば、音声やテキストで次の内容を指定できる。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;デフォルトパラメータ。&lt;/li&gt;
&lt;li&gt;&lt;code&gt;16:9&lt;/code&gt; のようなアスペクト比。&lt;/li&gt;
&lt;li&gt;画像参照。&lt;/li&gt;
&lt;li&gt;スタイル参照、つまり &lt;code&gt;--sref&lt;/code&gt;。&lt;/li&gt;
&lt;li&gt;V7 の Omni-reference。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;これは Midjourney が生成品質だけでなく、パラメータ操作の負担も下げようとしていることを示している。&lt;/p&gt;
&lt;p&gt;普通のユーザーにとって最大の変化は、コマンドを常に覚えなくてもよくなることだ。ヘビーユーザーにとっては、会話モードが十分安定すれば、自然言語で生成設定を調整する入口になり得る。&lt;/p&gt;
&lt;h2 id=&#34;ai支援開発が-midjourney-チームの反復速度を変えている&#34;&gt;AI支援開発が Midjourney チームの反復速度を変えている
&lt;/h2&gt;&lt;p&gt;もう一つ興味深い点は、Midjourney チーム自身が AI支援開発を大規模に使っていることだ。&lt;/p&gt;
&lt;p&gt;元記事によれば、チームは小さな bug、UI 上の摩擦、ワークフロー上の問題を以前よりずっと速く修正できるようになっている。ユーザーとの通話中に製品 bug が見つかり、AI支援でリアルタイム修正し、レビュー後すぐに展開した例も紹介されている。&lt;/p&gt;
&lt;p&gt;これは「AI がエンジニアのコードを書く」という話以上に重要だ。&lt;/p&gt;
&lt;p&gt;AI 開発ツールが、AI 製品自身の反復方法に影響し始めているということだからだ。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;ユーザーフィードバックを修正フローへ早く入れられる。&lt;/li&gt;
&lt;li&gt;小さな体験上の問題を処理しやすくなる。&lt;/li&gt;
&lt;li&gt;エンジニアはアーキテクチャ、レビュー、設計判断、テストへより多くの力を使える。&lt;/li&gt;
&lt;li&gt;プロダクトチームは edge case をより頻繁に整理できる。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Midjourney のような製品には、創作経路、パラメータ組み合わせ、モバイル体験、検索、整理フローが大量にある。多くの問題は「コアモデルが画像を生成できない」ことではなく、入口が使いにくい、操作が一手多い、特殊な状態が気持ちよくない、といったものだ。&lt;/p&gt;
&lt;p&gt;AI支援開発は、このような小さく大量にある改善を加速するのに向いている。&lt;/p&gt;
&lt;h2 id=&#34;サイト改修の重点はワークフローであり機能削除ではない&#34;&gt;サイト改修の重点はワークフローであり、機能削除ではない
&lt;/h2&gt;&lt;p&gt;Office Hours では、Midjourney の Web サイトが大きく改修中であることも触れられている。&lt;/p&gt;
&lt;p&gt;目標は複雑な機能を削ることではなく、創作フローをより直感的にし、新規ユーザーが入りやすくし、ツールと機能をより分かりやすく整理することだ。&lt;/p&gt;
&lt;p&gt;これは重要だ。&lt;/p&gt;
&lt;p&gt;Midjourney の問題は機能不足ではない。機能が増えるほど、入口、保存、整理、参照、探索、再利用が複雑になる。ライトユーザーにとって難しいのは「どこから始めるか」であり、ヘビーユーザーにとって難しいのは「大量のスタイル、参照、実験結果をどう管理するか」だ。&lt;/p&gt;
&lt;p&gt;可能な展開方針としては、次のようなものがある。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;新旧インターフェースを並行提供する。&lt;/li&gt;
&lt;li&gt;まず alpha テストを行う。&lt;/li&gt;
&lt;li&gt;ヘビーユーザーへの影響を避けるため、段階的に移行する。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;この方針から、チームが Midjourney を単なる画像生成の玩具とは見ていないことが分かる。多くのユーザーはすでに実際の創作ワークフローに組み込んでおり、UI 変更で既存の習慣を簡単に壊すことはできない。&lt;/p&gt;
&lt;h2 id=&#34;srefスタイルタグ整理はまだ痛点&#34;&gt;SREF、スタイル、タグ整理はまだ痛点
&lt;/h2&gt;&lt;p&gt;SREF とスタイル整理は、今回の Q&amp;amp;A で特に注目すべき部分だ。&lt;/p&gt;
&lt;p&gt;ユーザーはよりよい整理システムを求めている。特に次のようなものだ。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;ランダム SREF。&lt;/li&gt;
&lt;li&gt;スタイル参照。&lt;/li&gt;
&lt;li&gt;保存した美学方向。&lt;/li&gt;
&lt;li&gt;タグと色付きタグ。&lt;/li&gt;
&lt;li&gt;より強いフィルタリング、分類、再利用。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;一方でチームは、現在のフォルダーシステムが一つの画像を複数フォルダーに入れられ、無制限のフォルダー数をサポートし、フィルタリングと並び替えもできるなら、タグはフォルダーにない何を提供するのか、という問いも投げている。&lt;/p&gt;
&lt;p&gt;これは現実的な問いだ。&lt;/p&gt;
&lt;p&gt;多くのプロダクトは、ユーザーがタグを欲しいと言うからタグを追加する。しかしタグシステムの設計が悪いと、別の混乱した分類層になる。フォルダー、タグ、お気に入り、検索、フィルター、プロジェクト、スタイルライブラリの境界が曖昧だと、かえって管理しにくくなる。&lt;/p&gt;
&lt;p&gt;そのため Midjourney チームは、より具体的なワークフロー例を集めたいと考えている。ユーザーはどの場面でタグを必要とするのか。なぜフォルダーでは足りないのか。スタイルを素早く組み合わせたいのか、プロジェクトをまたいで再利用したいのか、テーマ、色調、写真スタイル、キャラクター関係で絞り込みたいのか。&lt;/p&gt;
&lt;p&gt;Midjourney にとって、整理システムは生成モデルと同じくらい重要になり得る。ユーザーが長期的に創作を始めると、難しいのは一枚の画像を生成することではなく、数千枚の画像、数百のスタイル方向、反復実験の結果を管理することだからだ。&lt;/p&gt;
&lt;h2 id=&#34;omni-reference-はより複雑なキャラクター制御へ向かう&#34;&gt;Omni-reference はより複雑なキャラクター制御へ向かう
&lt;/h2&gt;&lt;p&gt;元記事では、将来の Omni-reference / subject reference システムが、複数のキャラクター参照を同時に扱い、異なる主体をよりよく分離できる可能性にも触れている。&lt;/p&gt;
&lt;p&gt;これは AI 画像生成の長年の痛点、つまりキャラクター一貫性と複数キャラクター関係に直結する。&lt;/p&gt;
&lt;p&gt;一人のキャラクターを一貫させるだけでも難しい。複数人になるとさらに難しい。よくある問題は次の通りだ。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;A の特徴が B に移る。&lt;/li&gt;
&lt;li&gt;複数人物の身份が混ざる。&lt;/li&gt;
&lt;li&gt;服装、髪型、顔の特徴が画像ごとに安定しない。&lt;/li&gt;
&lt;li&gt;参照画像が主体だけでなく全体スタイルへ強く影響しすぎる。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Omni-reference が主体分離をよりうまく扱えるなら、Midjourney は漫画、絵コンテ、広告ビジュアル、キャラクター設定、ゲームコンセプトアート、連続した物語により向くようになる。&lt;/p&gt;
&lt;p&gt;これは V7 以降も継続して注目すべき方向だ。&lt;/p&gt;
&lt;h2 id=&#34;midjourney-は-prompt-を捉え直している&#34;&gt;Midjourney は prompt を捉え直している
&lt;/h2&gt;&lt;p&gt;今回のまとめには、興味深い考え方もある。言語は想像力を圧縮する層だ、というものだ。&lt;/p&gt;
&lt;p&gt;これは Midjourney の製品方向をよく説明している。&lt;/p&gt;
&lt;p&gt;多くのユーザーは、AI 画像生成の核心はより長く、より正確な prompt を書くことだと思いがちだ。しかし実際の創作では、画像参照、スタイル参照、moodboard、SREF、バリエーション、再生成、後処理の方が、長文 prompt より役立つことが多い。&lt;/p&gt;
&lt;p&gt;Midjourney チームの Duncan のワークフローもそれを示している。彼は Midjourney を sketchbook のように使い、moodboard、SREF、少ない文字、高い &lt;code&gt;--r&lt;/code&gt; 再生成、強い/微妙なバリエーション、Photoshop レタッチ、外部アップスケールを組み合わせる。&lt;/p&gt;
&lt;p&gt;つまり成熟した Midjourney ユーザーは、「魔法のプロンプト」だけで作業しているわけではない。&lt;/p&gt;
&lt;p&gt;より現実的な流れは次の通りだ。&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;少ない言葉で方向を与える。&lt;/li&gt;
&lt;li&gt;画像参照で視覚的文脈を与える。&lt;/li&gt;
&lt;li&gt;SREF でスタイルを絞る。&lt;/li&gt;
&lt;li&gt;多数のバリエーションで空間を探索する。&lt;/li&gt;
&lt;li&gt;人間の審美眼で結果を選ぶ。&lt;/li&gt;
&lt;li&gt;外部ツールで後処理する。&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Prompt は重要だが、すべてではない。&lt;/p&gt;
&lt;h2 id=&#34;ユーザーにとっての意味&#34;&gt;ユーザーにとっての意味
&lt;/h2&gt;&lt;p&gt;たまに画像を生成するだけなら、今回の更新で最も直接的な影響は会話モードが使いやすくなることだ。将来的には、比率、参照画像、スタイル、パラメータを、コマンドを覚えずに自然に伝えられるかもしれない。&lt;/p&gt;
&lt;p&gt;ヘビーユーザーなら、注目すべき方向は三つある。&lt;/p&gt;
&lt;p&gt;第一に、整理システム。&lt;/p&gt;
&lt;p&gt;SREF、スタイル、フォルダー、お気に入り、タグがどう進化するかは、長期的な創作効率に直結する。&lt;/p&gt;
&lt;p&gt;第二に、サイト改修。&lt;/p&gt;
&lt;p&gt;新しい UI が探索、整理、再利用、書き出しをつなげられるなら、Midjourney は単一の生成器ではなく、より専門的な創作ツールに近づく。&lt;/p&gt;
&lt;p&gt;第三に、キャラクターと主体参照。&lt;/p&gt;
&lt;p&gt;Omni-reference が複数キャラクターと主体分離を安定して扱えるなら、Midjourney は単発画像だけでなく、継続プロジェクトにより向くようになる。&lt;/p&gt;
&lt;h2 id=&#34;まとめ&#34;&gt;まとめ
&lt;/h2&gt;&lt;p&gt;Midjourney 2026年5月の Office Hours の重点は、派手な単一パラメータではない。プロダクトが引き続き「創作システム」へ進化していることだ。&lt;/p&gt;
&lt;p&gt;会話モードは入力のハードルを下げる。AI支援開発は反復速度を上げる。サイト改修はワークフロー再編を目指す。SREF とタグの議論は長期的なアセット管理を示す。Omni-reference はキャラクター一貫性と複雑な主体制御に関わる。&lt;/p&gt;
&lt;p&gt;AI 画像生成ツールにとって、モデル能力が重要なのは当然だ。しかし生成品質が一定水準に達したあと、ユーザーが長く残るかどうかを決めるのは、ワークフロー、整理能力、制御性、反復速度であることが多い。&lt;/p&gt;
&lt;p&gt;Midjourney はその部分を補い始めている。&lt;/p&gt;
&lt;h2 id=&#34;参考資料&#34;&gt;参考資料
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://note.com/akisuke0925/n/nc9e099d9c77f&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Midjourney 最新ニュース（2026年5月14 日）｜アキスケ&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
</description>
        </item>
        
    </channel>
</rss>
