<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>音声モデル on KnightLiブログ</title>
        <link>https://www.knightli.com/ja/tags/%E9%9F%B3%E5%A3%B0%E3%83%A2%E3%83%87%E3%83%AB/</link>
        <description>Recent content in 音声モデル on KnightLiブログ</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>ja</language>
        <lastBuildDate>Sat, 09 May 2026 10:58:47 +0800</lastBuildDate><atom:link href="https://www.knightli.com/ja/tags/%E9%9F%B3%E5%A3%B0%E3%83%A2%E3%83%87%E3%83%AB/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>OpenAI の新世代 Realtime 音声モデル：GPT-Realtime-2、リアルタイム翻訳、ストリーミング文字起こし</title>
        <link>https://www.knightli.com/ja/2026/05/09/openai-realtime-voice-models-gpt-realtime-2-translate-whisper/</link>
        <pubDate>Sat, 09 May 2026 10:58:47 +0800</pubDate>
        
        <guid>https://www.knightli.com/ja/2026/05/09/openai-realtime-voice-models-gpt-realtime-2-translate-whisper/</guid>
        <description>&lt;p&gt;OpenAI は 2026 年 5 月 7 日、新世代の Realtime API 向け音声モデルを発表しました。焦点は「より人間らしく話す」ことだけではなく、音声エージェントがリアルタイムの会話中に理解し、推論し、ツールを呼び出し、翻訳し、文字起こしできるようにすることです。&lt;/p&gt;
&lt;p&gt;今回の更新には 3 つのモデルが含まれます。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;GPT-Realtime-2&lt;/code&gt;：リアルタイム音声 Agent 向けの主力モデル。より強い推論、ツール呼び出し、長いコンテキストに対応します。&lt;/li&gt;
&lt;li&gt;&lt;code&gt;GPT-Realtime-Translate&lt;/code&gt;：70 以上の入力言語から 13 の出力言語へのリアルタイム音声翻訳モデル。&lt;/li&gt;
&lt;li&gt;&lt;code&gt;GPT-Realtime-Whisper&lt;/code&gt;：字幕、会議メモ、リアルタイムワークフロー向けの低遅延ストリーミング音声認識モデル。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;初期の音声アシスタントが「一問一答」に近かったとすれば、今回の更新は「聞きながら作業する」音声インターフェースに近づいています。&lt;/p&gt;
&lt;h2 id=&#34;gpt-realtime-2音声-agent-の主力モデル&#34;&gt;GPT-Realtime-2：音声 Agent の主力モデル
&lt;/h2&gt;&lt;p&gt;&lt;code&gt;GPT-Realtime-2&lt;/code&gt; はリアルタイム音声対話向けに作られています。質問に答えるだけでなく、ユーザーが話し、言い直し、割り込み、条件を追加する間も文脈を保ち、必要に応じてツールを呼び出してタスクを完了します。&lt;/p&gt;
&lt;p&gt;公式に強調されている機能は次の通りです。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;「確認します」のような短い前置きを返し、処理中であることをユーザーに伝えられる。&lt;/li&gt;
&lt;li&gt;カレンダー、検索、注文、サポートシステムなどの複数ツールを並行して呼び出せる。&lt;/li&gt;
&lt;li&gt;失敗時の復帰がより自然で、会話が突然止まったり沈黙したりしにくい。&lt;/li&gt;
&lt;li&gt;コンテキストウィンドウが 32K から 128K に拡大され、長い会話や複雑なタスクフローに対応しやすい。&lt;/li&gt;
&lt;li&gt;専門用語、固有名詞、医療用語などの保持が改善されている。&lt;/li&gt;
&lt;li&gt;冷静、共感的、確認的、明るいなど、場面に応じた話し方を制御しやすい。&lt;/li&gt;
&lt;li&gt;reasoning effort は &lt;code&gt;minimal&lt;/code&gt;、&lt;code&gt;low&lt;/code&gt;、&lt;code&gt;medium&lt;/code&gt;、&lt;code&gt;high&lt;/code&gt;、&lt;code&gt;xhigh&lt;/code&gt; から選択でき、デフォルトは &lt;code&gt;low&lt;/code&gt;。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;これにより、開発者は単純な Q&amp;amp;A だけでなく、より複雑な業務に音声 Agent を組み込めます。たとえば、サポート Agent がユーザーの説明を聞きながら注文を確認したり、旅行アプリがフライト変更に応じて次の行動を提案したり、不動産アプリが口頭条件から物件を絞り込んで内見を予約したりできます。&lt;/p&gt;
&lt;h2 id=&#34;リアルタイム翻訳多言語音声プロダクト向け&#34;&gt;リアルタイム翻訳：多言語音声プロダクト向け
&lt;/h2&gt;&lt;p&gt;&lt;code&gt;GPT-Realtime-Translate&lt;/code&gt; はリアルタイム音声翻訳向けのモデルです。ユーザーは自分の言語で話し、相手は翻訳された音声を聞きながらリアルタイムの文字起こしも確認できます。&lt;/p&gt;
&lt;p&gt;適した用途は明確です。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;多言語カスタマーサポート。&lt;/li&gt;
&lt;li&gt;越境営業やプリセールス。&lt;/li&gt;
&lt;li&gt;オンライン教育やライブイベント。&lt;/li&gt;
&lt;li&gt;国際会議やイベント司会。&lt;/li&gt;
&lt;li&gt;動画プラットフォームやクリエイターコンテンツのローカライズ。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;リアルタイム翻訳の難しさは、正確さだけではありません。低遅延、自然な間、トーンの保持、アクセントへの対応、専門語彙の処理も必要です。OpenAI は、発話全体を待ってから翻訳するのではなく、より自然な異言語会話に近づけることを強調しています。&lt;/p&gt;
&lt;h2 id=&#34;ストリーミング文字起こし音声をすぐにワークフローへ&#34;&gt;ストリーミング文字起こし：音声をすぐにワークフローへ
&lt;/h2&gt;&lt;p&gt;&lt;code&gt;GPT-Realtime-Whisper&lt;/code&gt; は新しいストリーミング音声認識モデルです。録音が終わるのを待つのではなく、話されている最中に音声を処理可能なテキストへ変換できる点に価値があります。&lt;/p&gt;
&lt;p&gt;主な用途は次の通りです。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;会議のリアルタイム字幕。&lt;/li&gt;
&lt;li&gt;授業や配信の字幕。&lt;/li&gt;
&lt;li&gt;リアルタイム議事録。&lt;/li&gt;
&lt;li&gt;音声 Agent への継続的な音声入力。&lt;/li&gt;
&lt;li&gt;サポート、医療、採用、営業など高頻度の音声業務における後続処理。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;プロダクト側では、ストリーミング文字起こしによって「話す」から「使えるテキスト」までの時間を短縮できます。字幕は早く表示され、会議メモは会話中に生成され、要約、タスク抽出、CRM 登録なども早く始められます。&lt;/p&gt;
&lt;h2 id=&#34;価格と提供状況&#34;&gt;価格と提供状況
&lt;/h2&gt;&lt;p&gt;3 つのモデルはいずれも Realtime API で利用できます。公式価格は次の通りです。&lt;/p&gt;
&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;モデル&lt;/th&gt;
          &lt;th&gt;価格&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;GPT-Realtime-2&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;音声入力 $32 / 1M tokens、キャッシュ入力 $0.40 / 1M tokens、音声出力 $64 / 1M tokens&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;GPT-Realtime-Translate&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;$0.034 / 分&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;GPT-Realtime-Whisper&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;$0.017 / 分&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;OpenAI は Realtime API が EU Data Residency に対応し、エンタープライズ向けプライバシーコミットメントの対象であるとも述べています。欧州企業やデータ所在要件のある音声プロダクトでは、個別に評価すべき点です。&lt;/p&gt;
&lt;h2 id=&#34;開発者にとっての意味&#34;&gt;開発者にとっての意味
&lt;/h2&gt;&lt;p&gt;今回の発表で重要なのは、音声機能が単なる入出力層から、プロダクトの対話層へ移り始めていることです。&lt;/p&gt;
&lt;p&gt;従来の多くの音声機能は、音声をテキストに変換し、テキスト応答を音声に戻すものでした。本当に難しいのは中間層です。ユーザー意図の理解、割り込み処理、文脈補完、ツール呼び出し、処理状況の説明、失敗時の自然な復帰が必要になります。&lt;/p&gt;
&lt;p&gt;&lt;code&gt;GPT-Realtime-2&lt;/code&gt; はこの能力をリアルタイム音声モデル側に直接持たせようとしています。開発者が見るべきなのは単発の回答品質だけでなく、継続的な会話と多段階タスクを支えられるかどうかです。&lt;/p&gt;
&lt;p&gt;優先的に試す価値があるプロダクトは次の通りです。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;カスタマーサポート音声 Agent。&lt;/li&gt;
&lt;li&gt;車載およびモバイル音声アシスタント。&lt;/li&gt;
&lt;li&gt;旅行、予約、不動産、金融など、会話しながら検索や照会が必要なサービス。&lt;/li&gt;
&lt;li&gt;多言語会議や越境コミュニケーションツール。&lt;/li&gt;
&lt;li&gt;リアルタイム字幕、議事録、通話品質管理システム。&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;安全性と告知も重要&#34;&gt;安全性と告知も重要
&lt;/h2&gt;&lt;p&gt;OpenAI は発表ページで、Realtime API には複数の安全対策が含まれると説明しています。たとえばセッションに対するアクティブ分類や、ポリシー違反が検出された会話の停止です。開発者は Agents SDK を使って独自のガードレールを追加することもできます。&lt;/p&gt;
&lt;p&gt;見落としやすい要件として、エンドユーザーが AI と対話していることを明確に知らせる必要があります。ただし、文脈上それが明らかな場合は例外です。&lt;/p&gt;
&lt;p&gt;これはサポート、営業、教育、医療などで特に重要です。音声が自然になるほど、プロダクト設計上の境界も明確にする必要があります。ユーザーは自分が AI と話していること、どの操作が記録、文字起こし、ツール呼び出しにつながるのかを理解できるべきです。&lt;/p&gt;
&lt;h2 id=&#34;まとめ&#34;&gt;まとめ
&lt;/h2&gt;&lt;p&gt;OpenAI の今回の Realtime API 更新は、リアルタイム音声を「聞いて話せる」段階から「聞きながらタスクを処理できる」段階へ進めるものです。&lt;/p&gt;
&lt;p&gt;&lt;code&gt;GPT-Realtime-2&lt;/code&gt; は複雑な音声 Agent、&lt;code&gt;GPT-Realtime-Translate&lt;/code&gt; は異言語間のリアルタイム会話、&lt;code&gt;GPT-Realtime-Whisper&lt;/code&gt; は低遅延文字起こしを担当します。3 つを合わせると、音声プロダクトでよく必要になる会話、翻訳、文字起こしをカバーできます。&lt;/p&gt;
&lt;p&gt;サポート、車載、会議、教育、越境コミュニケーション、モバイル音声アシスタントを作っているなら、この更新は重点的に試す価値があります。検証すべきなのは、自然に聞こえるかだけではなく、長い会話、割り込み、ツール呼び出し、失敗復帰、コスト管理でどう振る舞うかです。&lt;/p&gt;
&lt;p&gt;参考リンク：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://openai.com/index/advancing-voice-intelligence-with-new-models-in-the-api/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;OpenAI：Advancing voice intelligence with new models in the API&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
</description>
        </item>
        
    </channel>
</rss>
