<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>NVIDIA on KnightLiブログ</title>
        <link>https://www.knightli.com/ja/tags/nvidia/</link>
        <description>Recent content in NVIDIA on KnightLiブログ</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>ja</language>
        <lastBuildDate>Fri, 24 Apr 2026 14:41:35 +0800</lastBuildDate><atom:link href="https://www.knightli.com/ja/tags/nvidia/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>NVIDIA nvbandwidth とは何か：GPU 帯域テストツールの使い方</title>
        <link>https://www.knightli.com/ja/2026/04/24/nvidia-nvbandwidth-guide/</link>
        <pubDate>Fri, 24 Apr 2026 14:41:35 +0800</pubDate>
        
        <guid>https://www.knightli.com/ja/2026/04/24/nvidia-nvbandwidth-guide/</guid>
        <description>&lt;p&gt;複数の &lt;code&gt;NVIDIA GPU&lt;/code&gt; 間の接続性能を調べているときや、&lt;code&gt;PCIe&lt;/code&gt;、&lt;code&gt;NVLink&lt;/code&gt;、ホストメモリと VRAM の間で実際にどれくらいの帯域が出ているか確認したいとき、&lt;code&gt;NVIDIA/nvbandwidth&lt;/code&gt; は知っておく価値のある小さなツールです。&lt;/p&gt;
&lt;p&gt;これは汎用的なベンチマークソフトではなく、大規模モデルのフレームワークに隠れているコマンドでもありません。NVIDIA がオープンソースで公開している、GPU 関連のメモリコピーにおける帯域とレイテンシを測定するための専用ツールです。理論帯域を見るだけではなく、&lt;code&gt;nvbandwidth&lt;/code&gt; は次のような実務的な問いに向いています。&lt;strong&gt;このマシンにある GPU と相互接続の組み合わせで、実際にどれだけの帯域が出るのか。&lt;/strong&gt;&lt;/p&gt;
&lt;h2 id=&#34;1-nvbandwidth-は何をするツールか&#34;&gt;1. &lt;code&gt;nvbandwidth&lt;/code&gt; は何をするツールか
&lt;/h2&gt;&lt;p&gt;公式 README によると、&lt;code&gt;nvbandwidth&lt;/code&gt; は &lt;code&gt;NVIDIA GPU&lt;/code&gt; の帯域を測定するためのコマンドラインツールです。&lt;/p&gt;
&lt;p&gt;主に、さまざまな &lt;code&gt;memcpy&lt;/code&gt; パターンにおける転送性能を測ります。たとえば次のようなものです。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;GPU -&amp;gt; GPU&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;&lt;code&gt;CPU -&amp;gt; GPU&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;&lt;code&gt;GPU -&amp;gt; CPU&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;マルチノード環境での GPU 間転送&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;この種のテストは、特に次のような場面で役立ちます。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;マルチ GPU の学習や推論で相互接続のボトルネックを調べる&lt;/li&gt;
&lt;li&gt;&lt;code&gt;NVLink&lt;/code&gt;、&lt;code&gt;PCIe&lt;/code&gt;、&lt;code&gt;C2C&lt;/code&gt; などのリンクが実際にどう動いているかを確認する&lt;/li&gt;
&lt;li&gt;サーバー構成、トポロジ、ドライバ、CUDA バージョンごとの差を比較する&lt;/li&gt;
&lt;li&gt;クラスタ導入前の基礎的なハードウェア検証を行う&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;要するに、&lt;code&gt;nvbandwidth&lt;/code&gt; が見ているのはモデルのスループットではなく、より下層の「データを運ぶ力」です。&lt;/p&gt;
&lt;h2 id=&#34;2-単なる-1-つのスコアを出すツールではない&#34;&gt;2. 単なる 1 つのスコアを出すツールではない
&lt;/h2&gt;&lt;p&gt;帯域テストというと最後に 1 つの数字だけが出るイメージを持つ人もいますが、&lt;code&gt;nvbandwidth&lt;/code&gt; の出力はもっと細かいです。&lt;/p&gt;
&lt;p&gt;各テストごとに行列形式で結果を出します。たとえば &lt;code&gt;device_to_device_memcpy_write_ce&lt;/code&gt; のようなテストでは、GPU の行列として各デバイス対の帯域が表示されます。これにより、「このマシンはだいたい速いかどうか」だけでなく、次のようなことも見えてきます。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;どの GPU ペアが特に高速か&lt;/li&gt;
&lt;li&gt;どの経路が明らかに &lt;code&gt;PCIe&lt;/code&gt; に制限されているか&lt;/li&gt;
&lt;li&gt;一部の GPU ペアで異常に低い帯域が出ていないか&lt;/li&gt;
&lt;li&gt;マルチ GPU のトポロジが想定どおりか&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;8 GPU サーバー、デュアルソケット構成、あるいはマルチノード環境を見ているなら、この行列形式の出力は単純な平均値より役に立つことが多いです。&lt;/p&gt;
&lt;h2 id=&#34;3-ce-と-sm-の-2-種類のコピーをどう理解するか&#34;&gt;3. &lt;code&gt;CE&lt;/code&gt; と &lt;code&gt;SM&lt;/code&gt; の 2 種類のコピーをどう理解するか
&lt;/h2&gt;&lt;p&gt;公式ドキュメントでは、テストを 2 種類に分けています。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;CE&lt;/code&gt;：&lt;code&gt;memcpy&lt;/code&gt; API に基づく copy engine 転送&lt;/li&gt;
&lt;li&gt;&lt;code&gt;SM&lt;/code&gt;：kernel ベースの転送&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;この 2 種類の結果は、必ずしも完全には一致しません。なぜなら、異なるコピー経路を表しているからです。&lt;br&gt;
まず通常のデバイス間転送を見たいなら、一般的には &lt;code&gt;CE&lt;/code&gt; を先に確認します。より細かい実行経路まで見たい場合は、続けて &lt;code&gt;SM&lt;/code&gt; を見るのがよいです。&lt;/p&gt;
&lt;p&gt;また README では、帯域の結果は既定で複数回の測定に対する中央値を使うと説明されています。新しいバージョンでは変動統計も追加されており、値の安定性を判断しやすくなっています。&lt;/p&gt;
&lt;h2 id=&#34;4-実行に必要な環境&#34;&gt;4. 実行に必要な環境
&lt;/h2&gt;&lt;p&gt;&lt;code&gt;nvbandwidth&lt;/code&gt; は、ダウンロードしてそのまま実行できる単独バイナリではありません。標準的な CUDA 開発環境が前提です。&lt;/p&gt;
&lt;p&gt;現在の README にある基本要件は次のとおりです。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;CUDA Toolkit 11.x&lt;/code&gt; 以上&lt;/li&gt;
&lt;li&gt;&lt;code&gt;C++17&lt;/code&gt; をサポートするコンパイラ&lt;/li&gt;
&lt;li&gt;&lt;code&gt;CMake 3.20+&lt;/code&gt;、推奨は &lt;code&gt;3.24+&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;&lt;code&gt;Boost program_options&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;利用可能な &lt;code&gt;CUDA&lt;/code&gt; デバイスと互換ドライバ&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;マルチノード版を使う場合は要件がさらに上がります。README では次のように明記されています。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;マルチノード版のビルドには &lt;code&gt;CUDA Toolkit 12.3&lt;/code&gt; が必要&lt;/li&gt;
&lt;li&gt;ドライバは &lt;code&gt;550&lt;/code&gt; 以上が必要&lt;/li&gt;
&lt;li&gt;&lt;code&gt;MPI&lt;/code&gt; が必要&lt;/li&gt;
&lt;li&gt;&lt;code&gt;nvidia-imex&lt;/code&gt; サービスの設定が必要&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;そのため、これは一般的なデスクトップ向けというより、Linux の GPU サーバーやクラスタ向けのエンジニアリングツールと考えたほうが自然です。&lt;/p&gt;
&lt;h2 id=&#34;5-シングルノード版のビルドと実行方法&#34;&gt;5. シングルノード版のビルドと実行方法
&lt;/h2&gt;&lt;p&gt;シングルノード版のビルド手順はシンプルです。&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;cmake .
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;make
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;&lt;code&gt;Ubuntu&lt;/code&gt; / &lt;code&gt;Debian&lt;/code&gt; では、共通依存関係のインストールとビルドを行う &lt;code&gt;debian_install.sh&lt;/code&gt; スクリプトも用意されています。&lt;/p&gt;
&lt;p&gt;ビルド後は、まずヘルプを確認できます。&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;./nvbandwidth -h
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;よく使うオプションは次のとおりです。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;-l&lt;/code&gt;：利用可能なテストを一覧表示する&lt;/li&gt;
&lt;li&gt;&lt;code&gt;-t&lt;/code&gt;：名前または番号で特定のテストを実行する&lt;/li&gt;
&lt;li&gt;&lt;code&gt;-p&lt;/code&gt;：プレフィックス指定でテストをまとめて実行する&lt;/li&gt;
&lt;li&gt;&lt;code&gt;-b&lt;/code&gt;：memcpy buffer サイズを設定する。既定値は &lt;code&gt;512 MiB&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;&lt;code&gt;-i&lt;/code&gt;：測定反復回数を設定する&lt;/li&gt;
&lt;li&gt;&lt;code&gt;-j&lt;/code&gt;：&lt;code&gt;JSON&lt;/code&gt; で出力する&lt;/li&gt;
&lt;li&gt;&lt;code&gt;-H&lt;/code&gt;：ホストメモリ割り当てで huge pages を有効にする&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;まずは既定のテストを 1 回流したいだけなら、次のように実行します。&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;./nvbandwidth
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;特定の項目だけ試したい場合、たとえばデバイス間コピーを 1 つだけ見るなら次のようにします。&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;./nvbandwidth -t device_to_device_memcpy_read_ce
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;h2 id=&#34;6-マルチノード対応がこのツールの特徴&#34;&gt;6. マルチノード対応がこのツールの特徴
&lt;/h2&gt;&lt;p&gt;&lt;code&gt;nvbandwidth&lt;/code&gt; はシングルノードのマルチ GPU テストだけのツールではなく、マルチノード環境にも対応しています。&lt;/p&gt;
&lt;p&gt;README によると、マルチノード版のビルドは次のように行います。&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;cmake -DMULTINODE&lt;span class=&#34;o&#34;&gt;=&lt;/span&gt;&lt;span class=&#34;m&#34;&gt;1&lt;/span&gt; .
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;make
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;実行時は通常 &lt;code&gt;mpirun&lt;/code&gt; と組み合わせ、GPU ごとに 1 プロセスを割り当てて起動します。&lt;br&gt;
公式ドキュメントでは、参加するすべての rank が同じ multinode clique に属している必要があるとされており、MPI 環境では主に &lt;code&gt;multinode&lt;/code&gt; プレフィックスの付いたテストを実行することが推奨されています。&lt;/p&gt;
&lt;p&gt;このあたりからも、ワークステーションの簡単な自己診断用というより、高性能計算や大規模 GPU システム寄りのツールであることが分かります。&lt;/p&gt;
&lt;p&gt;&lt;code&gt;NVLink&lt;/code&gt; を使うマルチノード構成や、&lt;code&gt;GB200&lt;/code&gt; / &lt;code&gt;Grace Hopper&lt;/code&gt; のような複雑なプラットフォームを扱っているなら、一般的なコンシューマ GPU 環境よりも &lt;code&gt;nvbandwidth&lt;/code&gt; の価値はずっと高くなります。&lt;/p&gt;
&lt;h2 id=&#34;7-v09-では何が変わったか&#34;&gt;7. &lt;code&gt;v0.9&lt;/code&gt; では何が変わったか
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;2026 年 4 月 24 日&lt;/strong&gt; 時点で、GitHub Releases ページでは &lt;code&gt;nvbandwidth&lt;/code&gt; の最新バージョンは &lt;strong&gt;&lt;code&gt;v0.9&lt;/code&gt;&lt;/strong&gt;、公開日は &lt;strong&gt;2026 年 4 月 8 日&lt;/strong&gt; となっています。&lt;/p&gt;
&lt;p&gt;このリリースで特に注目しやすい更新点は次のとおりです。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;帯域出力に変動統計を追加&lt;/li&gt;
&lt;li&gt;ホストメモリ向け huge pages 対応を追加（&lt;code&gt;Windows&lt;/code&gt; は対象外）&lt;/li&gt;
&lt;li&gt;デバイス間テストに pair sampling オプションを追加&lt;/li&gt;
&lt;li&gt;troubleshooting guide を追加&lt;/li&gt;
&lt;li&gt;シングルノードとマルチノードの実行経路を統一&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;加えて、エンジニアリング面で次の 2 点も実用的です。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;実際の GPU アクセスにあまり依存しない CUDA アーキテクチャ検出に改善&lt;/li&gt;
&lt;li&gt;&lt;code&gt;CUDA Toolkit 13.0+&lt;/code&gt; 環境で &lt;code&gt;Volta&lt;/code&gt;（&lt;code&gt;sm_70&lt;/code&gt; / &lt;code&gt;sm_72&lt;/code&gt;）サポートを廃止&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;初期の情報しか見ていなかった人にとっては、&lt;code&gt;v0.9&lt;/code&gt; はもはや単なる帯域測定の初期版ではありません。自動化、トラブルシュート、大規模システム検証へと明確に進んでいます。&lt;/p&gt;
&lt;h2 id=&#34;8-どんなときに使うとよいか&#34;&gt;8. どんなときに使うとよいか
&lt;/h2&gt;&lt;p&gt;&lt;code&gt;nvbandwidth&lt;/code&gt; が特に向いているのは次のようなケースです。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;複数の &lt;code&gt;NVIDIA GPU&lt;/code&gt; 間で実際の相互接続帯域を確認したい&lt;/li&gt;
&lt;li&gt;ある GPU が帯域制限のある &lt;code&gt;PCIe&lt;/code&gt; スロットに挿さっている疑いがある&lt;/li&gt;
&lt;li&gt;&lt;code&gt;NVLink&lt;/code&gt; 経路と非 &lt;code&gt;NVLink&lt;/code&gt; 経路を比較したい&lt;/li&gt;
&lt;li&gt;マルチノード GPU クラスタを構築していて、リンクを検証したい&lt;/li&gt;
&lt;li&gt;結果を &lt;code&gt;JSON&lt;/code&gt; で出して自動化パイプラインに組み込みたい&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;一方で、「学習はどれくらい速いか」「推論は何 tokens/s 出るか」といった問いにそのまま答えるツールではありません。&lt;br&gt;
その場合は、学習フレームワーク、推論エンジン、あるいは実際のワークロードでの測定と合わせて見る必要があります。&lt;/p&gt;
&lt;h2 id=&#34;9-このツールの価値をどう捉えるか&#34;&gt;9. このツールの価値をどう捉えるか
&lt;/h2&gt;&lt;p&gt;GPU の性能問題の多くは、実は計算性能そのものが足りないのではなく、データの通り道が想定どおりに機能していないことが原因です。&lt;/p&gt;
&lt;p&gt;たとえば次のようなケースです。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;GPU 間で意図した接続経路が使われていない&lt;/li&gt;
&lt;li&gt;NUMA をまたぐアクセスで速度が落ちている&lt;/li&gt;
&lt;li&gt;一部の GPU ペアだけ帯域が異常に低い&lt;/li&gt;
&lt;li&gt;マルチノード通信の設定が不完全&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;こうした問題は、&lt;code&gt;nvidia-smi&lt;/code&gt; やモデルのスループットだけを見ていても特定しにくいことがあります。&lt;br&gt;
&lt;code&gt;nvbandwidth&lt;/code&gt; のような、より低レイヤで行列形式のテストツールは、相互接続レイヤで何が起きているかを可視化できる点が強みです。&lt;/p&gt;
&lt;p&gt;つまり、&lt;strong&gt;&lt;code&gt;nvbandwidth&lt;/code&gt; は NVIDIA GPU システム向けの帯域ヘルスチェック用コマンドラインツール&lt;/strong&gt;として理解すると分かりやすいです。&lt;/p&gt;
&lt;h2 id=&#34;関連リンク&#34;&gt;関連リンク
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;GitHub プロジェクト: &lt;a class=&#34;link&#34; href=&#34;https://github.com/NVIDIA/nvbandwidth&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://github.com/NVIDIA/nvbandwidth&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;Releases: &lt;a class=&#34;link&#34; href=&#34;https://github.com/NVIDIA/nvbandwidth/releases&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://github.com/NVIDIA/nvbandwidth/releases&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
</description>
        </item>
        
    </channel>
</rss>
