<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>AI動画 on KnightLiブログ</title>
        <link>https://www.knightli.com/ja/tags/ai%E5%8B%95%E7%94%BB/</link>
        <description>Recent content in AI動画 on KnightLiブログ</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>ja</language>
        <lastBuildDate>Fri, 08 May 2026 22:27:10 +0800</lastBuildDate><atom:link href="https://www.knightli.com/ja/tags/ai%E5%8B%95%E7%94%BB/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>miHoYo LPM 1.0 解説：AI 動画モデルはゲーム NPC をどう変えるのか</title>
        <link>https://www.knightli.com/ja/2026/05/08/lpm-1-0-ai-video-character-performance/</link>
        <pubDate>Fri, 08 May 2026 22:27:10 +0800</pubDate>
        
        <guid>https://www.knightli.com/ja/2026/05/08/lpm-1-0-ai-video-character-performance/</guid>
        <description>&lt;p&gt;LPM 1.0 は、また一つの AI 動画生成モデルだと誤解されやすい。デモだけを見ると、一部の text-to-video 製品のような大きなカメラ演出や強烈な視覚インパクトを狙っているわけではない。しかし論文の目的に戻すと、本当に解こうとしているのは「見栄えのよい動画を生成すること」ではなく、「インタラクションの中でデジタルキャラクターに存在感を持たせること」だとわかる。&lt;/p&gt;
&lt;p&gt;ここが LPM 1.0 と一般的な動画モデルの最大の違いだ。一般的な動画モデルは画質、カメラの連続性、プロンプト再現に注目する。LPM 1.0 が注目するのはキャラクターの演技である。話しているときは口形、リズム、表情が同期し、聞いているときはうなずき、視線、間、微表情があり、長時間の対話でも同じキャラクターとして安定する必要がある。&lt;/p&gt;
&lt;h2 id=&#34;動画生成から演技生成へ&#34;&gt;動画生成から演技生成へ
&lt;/h2&gt;&lt;p&gt;LPM は Large Performance Model、つまり大型パフォーマンスモデルを意味する。この名前は重要だ。タスクの境界を「動画」から「演技」へ移しているからである。&lt;/p&gt;
&lt;p&gt;実際の会話で相手が自然に感じられるかどうかは、何を言うかだけでは決まらない。多くの場合、聞くこと自体がコミュニケーションになる。適切なタイミングでうなずくか、視線が文脈に合っているか、表情が感情に合わせて少し変化するかが、「このキャラクターは生きている」と感じられるかを左右する。&lt;/p&gt;
&lt;p&gt;既存の多くのデジタルヒューマンは、テキスト、音声、口形を人物の見た目に貼り付けているに近い。キャラクターは話せるが、必ずしも聞けるわけではない。台詞を出せても、直前の入力に連続的に反応できるとは限らない。LPM 1.0 の目的は、この受動的な再生をリアルタイムの対話へ変えることだ。&lt;/p&gt;
&lt;h2 id=&#34;論文が扱う三つの難題&#34;&gt;論文が扱う三つの難題
&lt;/h2&gt;&lt;p&gt;LPM 1.0 の論文は、AI キャラクターパフォーマンスの問題を三角関係として整理している。表現力、リアルタイム性、長時間のアイデンティティ安定性である。細かい表現ができても遅い、応答は速いが動きが硬い、短時間は安定しても長く続くと見た目がずれる。三つを同時に満たすのは難しい。&lt;/p&gt;
&lt;p&gt;この問題に対し、LPM 1.0 はより複雑なキャラクター条件入力を使う。モデルに一枚の参照画像だけを与えるのではなく、全体外観、複数視点の身体、複数表情の顔参照を含む多粒度の identity reference を導入する。目的は、横顔、歯、表情の質感、身体比率などをモデルが勝手に補完してしまうのを減らし、長時間生成でも変形しにくくすることだ。&lt;/p&gt;
&lt;p&gt;論文では、話す行動と聞く行動も分けている。話す音声は主に口形、話速、頭部や身体のリズムを駆動する。聞く音声は視線、うなずき、姿勢変化、微表情を引き起こす。二つの信号を一つの制御に混ぜると、モデルは誤った対応を学びやすい。LPM 1.0 は speaking と listening を別々にモデル化し、オンラインシステムで一つの対話フローに接続する。&lt;/p&gt;
&lt;h2 id=&#34;base-lpm-と-online-lpm&#34;&gt;Base LPM と Online LPM
&lt;/h2&gt;&lt;p&gt;公開論文によると、LPM 1.0 の基盤は 17B パラメータの Diffusion Transformer である。Base LPM は高品質で制御可能、かつ identity-consistent なキャラクター演技動画を学習する。Online LPM は蒸留されたストリーミング生成器で、低遅延かつ長時間の対話を支える。&lt;/p&gt;
&lt;p&gt;この分割は重要だ。オフラインモデルは品質を追求できるが、対話シーンではユーザーを長く待たせられない。ユーザーが話し始めたら、キャラクターはすぐに「聞き」始める必要がある。キャラクターが話し始めたら、口形、表情、身体動作も即座についてこなければならない。Online LPM の価値は、複雑な動画生成をリアルタイム対話に近い形へ圧縮する点にある。&lt;/p&gt;
&lt;p&gt;したがって LPM 1.0 は、単にクリエイター向けの短尺動画素材ツールではない。対話エージェント、バーチャル配信者、ゲーム NPC のための視覚エンジンに近い。言語モデルが内容を理解して生成し、音声モデルが声を担当し、LPM が画面内のキャラクターを信頼できる形で演じさせる。&lt;/p&gt;
&lt;h2 id=&#34;ゲームにとっての意味&#34;&gt;ゲームにとっての意味
&lt;/h2&gt;&lt;p&gt;ゲーム業界に置くと、LPM 1.0 が示すのは、より美しいカットシーンではなく、次世代のインタラクティブキャラクターだ。&lt;/p&gt;
&lt;p&gt;従来のゲーム NPC は、事前に書かれたスクリプト、固定アニメーション、限られた分岐に依存している。プレイヤーは会話できるが、反応はほとんど設計済みである。AI 時代の目標はさらに先にある。同じ世界観の中でプレイヤーごとに異なる物語が生まれ、同じキャラクターでも相手に合わせた動作、感情、応答を返せることだ。&lt;/p&gt;
&lt;p&gt;これこそ、個別化されたゲーム体験に必要な基盤である。言語モデルは台詞を生成でき、行動システムは目標を決められる。しかし画面上のキャラクターが硬いままでは、プレイヤーはそれが自分を理解していると信じにくい。LPM 1.0 が補おうとしているのは、この視覚と演技の層である。&lt;/p&gt;
&lt;h2 id=&#34;万能の完成品として見ない&#34;&gt;万能の完成品として見ない
&lt;/h2&gt;&lt;p&gt;もちろん、LPM 1.0 は今のところ、すぐ大規模商用化できる完成品というより技術ルートとして理解するほうがよい。論文とデモは、リアルタイム、フルデュプレックス、identity-stable なキャラクター動画生成が実用に近づいていることを示している。ただしゲームに本格導入するには、コスト、遅延、端末側展開、コンテンツ安全性、キャラクター権利、マルチプレイヤー場面、エンジン統合などの問題が残る。&lt;/p&gt;
&lt;p&gt;現実的な導入は、最初からすべての NPC を置き換えることではないだろう。まずはバーチャル配信者、AI コンパニオン、物語対話、キャラクター型サポート、教育コーチングのような単一キャラクター場面に入る可能性が高い。モデルコストが下がり、遅延がさらに減れば、より複雑なゲームシステムへ進める。&lt;/p&gt;
&lt;h2 id=&#34;まとめ&#34;&gt;まとめ
&lt;/h2&gt;&lt;p&gt;LPM 1.0 の価値は、最も派手な動画を生成できるかではない。AI 動画の目標を「画面生成」から「キャラクターの存在感」へ押し出している点にある。&lt;/p&gt;
&lt;p&gt;将来のゲームがより個別化され、より動的になり、AI キャラクターに依存するなら、言語、音声、動作、表情、アイデンティティの一貫性は一緒に設計されなければならない。LPM 1.0 はその一つの道筋を示している。デジタルキャラクターが話すだけでなく、聞き、反応し、長い対話でも同じ存在であり続けるための道筋である。&lt;/p&gt;
&lt;p&gt;参考リンク：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://arxiv.org/abs/2604.07823&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;arXiv：LPM 1.0: Video-based Character Performance Model&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://large-performance-model.github.io/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;LPM 1.0 プロジェクトページ&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
</description>
        </item>
        <item>
        <title>Pixelle-Video：1つのテーマから短尺動画を生成するオープンソース AI エンジン</title>
        <link>https://www.knightli.com/ja/2026/05/07/pixelle-video-ai-short-video-engine/</link>
        <pubDate>Thu, 07 May 2026 20:25:17 +0800</pubDate>
        
        <guid>https://www.knightli.com/ja/2026/05/07/pixelle-video-ai-short-video-engine/</guid>
        <description>&lt;p&gt;&lt;a class=&#34;link&#34; href=&#34;https://github.com/AIDC-AI/Pixelle-Video&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Pixelle-Video&lt;/a&gt; は、AIDC-AI が公開している全自動短尺動画生成エンジンです。目標は明快です。ユーザーがテーマを入力すると、動画台本、AI 画像または動画、音声ナレーション、BGM、最終合成までを自動で処理します。&lt;/p&gt;
&lt;p&gt;この種のツールは、短尺動画の量産、知識解説、口播コンテンツ、小説解説、歴史・文化系動画、自媒体向け素材実験に向いています。単体の「テキストから動画」モデルではなく、複数の AI 能力をつなげた制作パイプラインです。&lt;/p&gt;
&lt;h2 id=&#34;自動化できること&#34;&gt;自動化できること
&lt;/h2&gt;&lt;p&gt;Pixelle-Video の標準フローは次のように整理できます。&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;テーマまたは固定台本を入力する。&lt;/li&gt;
&lt;li&gt;大規模言語モデルでナレーション原稿を生成する。&lt;/li&gt;
&lt;li&gt;シーン設計に沿って画像または動画素材を生成する。&lt;/li&gt;
&lt;li&gt;TTS で音声ナレーションを生成する。&lt;/li&gt;
&lt;li&gt;BGM を追加する。&lt;/li&gt;
&lt;li&gt;動画テンプレートを適用して最終動画を合成する。&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;README では「台本生成 → 画像計画 → フレームごとの処理 → 動画合成」という流れとして説明されています。モジュール化されているため、各ステップのモデルやパラメータを差し替えたり、独自ワークフローに変更したりしやすい構成です。&lt;/p&gt;
&lt;h2 id=&#34;主な機能&#34;&gt;主な機能
&lt;/h2&gt;&lt;p&gt;プロジェクトが対応している機能はかなり幅広いです。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;AI 台本生成：テーマから動画ナレーションを自動生成。&lt;/li&gt;
&lt;li&gt;AI 画像生成：各セリフや各シーンに対応するイラストを生成。&lt;/li&gt;
&lt;li&gt;AI 動画生成：WAN 2.1 などの動画生成モデルに対応。&lt;/li&gt;
&lt;li&gt;TTS 音声：Edge-TTS、Index-TTS などをサポート。&lt;/li&gt;
&lt;li&gt;BGM：内蔵 BGM またはカスタム音楽を利用可能。&lt;/li&gt;
&lt;li&gt;複数サイズ出力：縦動画、横動画など複数の比率に対応。&lt;/li&gt;
&lt;li&gt;複数モデル：GPT、Qwen、DeepSeek、Ollama などに対応。&lt;/li&gt;
&lt;li&gt;ComfyUI ワークフロー：標準ワークフローを使うことも、画像生成、TTS、動画生成などを差し替えることも可能。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;最近の更新では、モーション転写、デジタルヒューマン口播、画像から動画、多言語 TTS ボイス、RunningHub 対応、Windows 一体型パッケージなども追加されています。単なるスクリプトではなく、より完成度の高い制作ツールへ向かっていることが分かります。&lt;/p&gt;
&lt;h2 id=&#34;インストールと起動&#34;&gt;インストールと起動
&lt;/h2&gt;&lt;p&gt;Windows ユーザーは、まず公式の一体型パッケージを見るのがよいでしょう。Python、uv、ffmpeg を手動で準備せずに使えるようにするためのもので、展開後に &lt;code&gt;start.bat&lt;/code&gt; を実行し、ブラウザで Web UI を開いて API と画像生成サービスを設定します。&lt;/p&gt;
&lt;p&gt;ソースコードから起動する場合、README では次の基本手順が示されています。&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;3
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;git clone https://github.com/AIDC-AI/Pixelle-Video.git
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;nb&#34;&gt;cd&lt;/span&gt; Pixelle-Video
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;uv run streamlit run web/app.py
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;ソースからの利用は macOS、Linux ユーザーや、テンプレート、ワークフロー、サービス設定を変更したい人に向いています。主な前提は &lt;code&gt;uv&lt;/code&gt; と &lt;code&gt;ffmpeg&lt;/code&gt; です。&lt;/p&gt;
&lt;h2 id=&#34;設定の要点&#34;&gt;設定の要点
&lt;/h2&gt;&lt;p&gt;初回利用時に重要なのは、すぐに「生成」を押すことではなく、外部能力を正しく接続することです。&lt;/p&gt;
&lt;p&gt;LLM 設定は台本品質を左右します。Qwen、GPT、DeepSeek、Ollama などを選び、API Key、Base URL、モデル名を入力します。コストを抑えたいならローカルの Ollama が候補になります。安定した結果を優先するなら、クラウドモデルの方が扱いやすいことが多いです。&lt;/p&gt;
&lt;p&gt;画像・動画生成設定は画面品質を決めます。プロジェクトはローカル ComfyUI と RunningHub に対応しています。ComfyUI に慣れているユーザーなら、自分のワークフローを &lt;code&gt;workflows/&lt;/code&gt; ディレクトリに置き、標準の画像生成、動画生成、TTS フローを差し替えられます。&lt;/p&gt;
&lt;p&gt;テンプレート設定は最終動画の見た目を決めます。プロジェクトは &lt;code&gt;templates/&lt;/code&gt; ディレクトリで動画テンプレートを管理し、静的テンプレート、画像テンプレート、動画テンプレートを命名規則で分けています。クリエイターにとっては、素材だけでなく、そのままプレビューしてダウンロードできる動画まで出せる点が実用的です。&lt;/p&gt;
&lt;h2 id=&#34;向いている人&#34;&gt;向いている人
&lt;/h2&gt;&lt;p&gt;Pixelle-Video は次のような人に向いています。&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;短尺動画クリエイター&lt;/strong&gt;：企画を素早く投稿可能な下書き動画にしたい人。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;AIGC ツールユーザー&lt;/strong&gt;：LLM、ComfyUI、TTS、動画合成をつなげたい人。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;開発者・自動化ユーザー&lt;/strong&gt;：オープンソースを基にテンプレートやワークフローを改造し、自分の素材やモデルを接続したい人。&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;高品質な一本ものの動画を作るだけなら、手作業の編集を完全に置き換えるとは限りません。ただし、同じ構造の解説動画、口播動画、科普系コンテンツを大量に作りたいなら、このパイプライン型の考え方はかなり有用です。&lt;/p&gt;
&lt;h2 id=&#34;注意点&#34;&gt;注意点
&lt;/h2&gt;&lt;p&gt;この種のツールの上限は複数の工程で決まります。台本モデルが弱いと内容が薄くなり、画像モデルが弱いと画面が散らかり、TTS が不自然だと動画が粗く感じられます。テンプレートが合わなければ、最終的な見栄えも弱くなります。&lt;/p&gt;
&lt;p&gt;そのため、まずは「60秒の縦型知識解説動画」のような固定シーンから調整するのがおすすめです。LLM、画風、TTS 音色、BGM、テンプレートを固めてから、ほかのテーマへ広げる方が安定します。&lt;/p&gt;
&lt;p&gt;また、ローカル無料構成にも対応していますが、通常は GPU、ComfyUI 設定、モデルファイルが必要です。ローカル推論環境がない場合は、クラウド LLM と RunningHub を組み合わせると導入は楽になりますが、利用コストには注意が必要です。&lt;/p&gt;
&lt;h2 id=&#34;短評&#34;&gt;短評
&lt;/h2&gt;&lt;p&gt;Pixelle-Video の見どころは「一文から動画を生成できる」ことだけではありません。短尺動画制作を、台本、映像、音声、音楽、テンプレート、合成という交換可能なモジュールに分解している点にあります。一般ユーザーにとっては低ハードルの AI 動画ツールであり、開発者にとっては改造しやすい短尺動画自動化フレームワークです。&lt;/p&gt;
&lt;p&gt;AI 短尺動画パイプラインを研究している人、あるいは ComfyUI、TTS、LLM、テンプレート合成を一つの製品としてつなげたい人なら、Pixelle-Video は試して分解してみる価値があります。&lt;/p&gt;
</description>
        </item>
        
    </channel>
</rss>
