<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>AIGC on KnightLiブログ</title>
        <link>https://www.knightli.com/ja/tags/aigc/</link>
        <description>Recent content in AIGC on KnightLiブログ</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>ja</language>
        <lastBuildDate>Thu, 07 May 2026 20:25:17 +0800</lastBuildDate><atom:link href="https://www.knightli.com/ja/tags/aigc/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>Pixelle-Video：1つのテーマから短尺動画を生成するオープンソース AI エンジン</title>
        <link>https://www.knightli.com/ja/2026/05/07/pixelle-video-ai-short-video-engine/</link>
        <pubDate>Thu, 07 May 2026 20:25:17 +0800</pubDate>
        
        <guid>https://www.knightli.com/ja/2026/05/07/pixelle-video-ai-short-video-engine/</guid>
        <description>&lt;p&gt;&lt;a class=&#34;link&#34; href=&#34;https://github.com/AIDC-AI/Pixelle-Video&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Pixelle-Video&lt;/a&gt; は、AIDC-AI が公開している全自動短尺動画生成エンジンです。目標は明快です。ユーザーがテーマを入力すると、動画台本、AI 画像または動画、音声ナレーション、BGM、最終合成までを自動で処理します。&lt;/p&gt;
&lt;p&gt;この種のツールは、短尺動画の量産、知識解説、口播コンテンツ、小説解説、歴史・文化系動画、自媒体向け素材実験に向いています。単体の「テキストから動画」モデルではなく、複数の AI 能力をつなげた制作パイプラインです。&lt;/p&gt;
&lt;h2 id=&#34;自動化できること&#34;&gt;自動化できること
&lt;/h2&gt;&lt;p&gt;Pixelle-Video の標準フローは次のように整理できます。&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;テーマまたは固定台本を入力する。&lt;/li&gt;
&lt;li&gt;大規模言語モデルでナレーション原稿を生成する。&lt;/li&gt;
&lt;li&gt;シーン設計に沿って画像または動画素材を生成する。&lt;/li&gt;
&lt;li&gt;TTS で音声ナレーションを生成する。&lt;/li&gt;
&lt;li&gt;BGM を追加する。&lt;/li&gt;
&lt;li&gt;動画テンプレートを適用して最終動画を合成する。&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;README では「台本生成 → 画像計画 → フレームごとの処理 → 動画合成」という流れとして説明されています。モジュール化されているため、各ステップのモデルやパラメータを差し替えたり、独自ワークフローに変更したりしやすい構成です。&lt;/p&gt;
&lt;h2 id=&#34;主な機能&#34;&gt;主な機能
&lt;/h2&gt;&lt;p&gt;プロジェクトが対応している機能はかなり幅広いです。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;AI 台本生成：テーマから動画ナレーションを自動生成。&lt;/li&gt;
&lt;li&gt;AI 画像生成：各セリフや各シーンに対応するイラストを生成。&lt;/li&gt;
&lt;li&gt;AI 動画生成：WAN 2.1 などの動画生成モデルに対応。&lt;/li&gt;
&lt;li&gt;TTS 音声：Edge-TTS、Index-TTS などをサポート。&lt;/li&gt;
&lt;li&gt;BGM：内蔵 BGM またはカスタム音楽を利用可能。&lt;/li&gt;
&lt;li&gt;複数サイズ出力：縦動画、横動画など複数の比率に対応。&lt;/li&gt;
&lt;li&gt;複数モデル：GPT、Qwen、DeepSeek、Ollama などに対応。&lt;/li&gt;
&lt;li&gt;ComfyUI ワークフロー：標準ワークフローを使うことも、画像生成、TTS、動画生成などを差し替えることも可能。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;最近の更新では、モーション転写、デジタルヒューマン口播、画像から動画、多言語 TTS ボイス、RunningHub 対応、Windows 一体型パッケージなども追加されています。単なるスクリプトではなく、より完成度の高い制作ツールへ向かっていることが分かります。&lt;/p&gt;
&lt;h2 id=&#34;インストールと起動&#34;&gt;インストールと起動
&lt;/h2&gt;&lt;p&gt;Windows ユーザーは、まず公式の一体型パッケージを見るのがよいでしょう。Python、uv、ffmpeg を手動で準備せずに使えるようにするためのもので、展開後に &lt;code&gt;start.bat&lt;/code&gt; を実行し、ブラウザで Web UI を開いて API と画像生成サービスを設定します。&lt;/p&gt;
&lt;p&gt;ソースコードから起動する場合、README では次の基本手順が示されています。&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;3
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;git clone https://github.com/AIDC-AI/Pixelle-Video.git
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;nb&#34;&gt;cd&lt;/span&gt; Pixelle-Video
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;uv run streamlit run web/app.py
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;ソースからの利用は macOS、Linux ユーザーや、テンプレート、ワークフロー、サービス設定を変更したい人に向いています。主な前提は &lt;code&gt;uv&lt;/code&gt; と &lt;code&gt;ffmpeg&lt;/code&gt; です。&lt;/p&gt;
&lt;h2 id=&#34;設定の要点&#34;&gt;設定の要点
&lt;/h2&gt;&lt;p&gt;初回利用時に重要なのは、すぐに「生成」を押すことではなく、外部能力を正しく接続することです。&lt;/p&gt;
&lt;p&gt;LLM 設定は台本品質を左右します。Qwen、GPT、DeepSeek、Ollama などを選び、API Key、Base URL、モデル名を入力します。コストを抑えたいならローカルの Ollama が候補になります。安定した結果を優先するなら、クラウドモデルの方が扱いやすいことが多いです。&lt;/p&gt;
&lt;p&gt;画像・動画生成設定は画面品質を決めます。プロジェクトはローカル ComfyUI と RunningHub に対応しています。ComfyUI に慣れているユーザーなら、自分のワークフローを &lt;code&gt;workflows/&lt;/code&gt; ディレクトリに置き、標準の画像生成、動画生成、TTS フローを差し替えられます。&lt;/p&gt;
&lt;p&gt;テンプレート設定は最終動画の見た目を決めます。プロジェクトは &lt;code&gt;templates/&lt;/code&gt; ディレクトリで動画テンプレートを管理し、静的テンプレート、画像テンプレート、動画テンプレートを命名規則で分けています。クリエイターにとっては、素材だけでなく、そのままプレビューしてダウンロードできる動画まで出せる点が実用的です。&lt;/p&gt;
&lt;h2 id=&#34;向いている人&#34;&gt;向いている人
&lt;/h2&gt;&lt;p&gt;Pixelle-Video は次のような人に向いています。&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;短尺動画クリエイター&lt;/strong&gt;：企画を素早く投稿可能な下書き動画にしたい人。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;AIGC ツールユーザー&lt;/strong&gt;：LLM、ComfyUI、TTS、動画合成をつなげたい人。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;開発者・自動化ユーザー&lt;/strong&gt;：オープンソースを基にテンプレートやワークフローを改造し、自分の素材やモデルを接続したい人。&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;高品質な一本ものの動画を作るだけなら、手作業の編集を完全に置き換えるとは限りません。ただし、同じ構造の解説動画、口播動画、科普系コンテンツを大量に作りたいなら、このパイプライン型の考え方はかなり有用です。&lt;/p&gt;
&lt;h2 id=&#34;注意点&#34;&gt;注意点
&lt;/h2&gt;&lt;p&gt;この種のツールの上限は複数の工程で決まります。台本モデルが弱いと内容が薄くなり、画像モデルが弱いと画面が散らかり、TTS が不自然だと動画が粗く感じられます。テンプレートが合わなければ、最終的な見栄えも弱くなります。&lt;/p&gt;
&lt;p&gt;そのため、まずは「60秒の縦型知識解説動画」のような固定シーンから調整するのがおすすめです。LLM、画風、TTS 音色、BGM、テンプレートを固めてから、ほかのテーマへ広げる方が安定します。&lt;/p&gt;
&lt;p&gt;また、ローカル無料構成にも対応していますが、通常は GPU、ComfyUI 設定、モデルファイルが必要です。ローカル推論環境がない場合は、クラウド LLM と RunningHub を組み合わせると導入は楽になりますが、利用コストには注意が必要です。&lt;/p&gt;
&lt;h2 id=&#34;短評&#34;&gt;短評
&lt;/h2&gt;&lt;p&gt;Pixelle-Video の見どころは「一文から動画を生成できる」ことだけではありません。短尺動画制作を、台本、映像、音声、音楽、テンプレート、合成という交換可能なモジュールに分解している点にあります。一般ユーザーにとっては低ハードルの AI 動画ツールであり、開発者にとっては改造しやすい短尺動画自動化フレームワークです。&lt;/p&gt;
&lt;p&gt;AI 短尺動画パイプラインを研究している人、あるいは ComfyUI、TTS、LLM、テンプレート合成を一つの製品としてつなげたい人なら、Pixelle-Video は試して分解してみる価値があります。&lt;/p&gt;
</description>
        </item>
        
    </channel>
</rss>
