極端な試み: Raspberry Pi 5(8GB RAM) で Gemma 4 を実行します。目標は、大規模なモデル バージョンではなく、E2B の最小バージョンです。
結論から始めましょう。実行して使用することはできますが、対話頻度の低いシナリオに適しており、リアルタイム要件の高い対話エクスペリエンスには適していません。
テスト環境
- デバイス: Raspberry Pi 5 (4コアCPU、8GB RAM)
- システム: Ubuntu サーバー (グラフィカル インターフェイスなし)
- アクセス方法:SSH
- モデルの実行方法: LM Studio CLI (コマンドラインモードのみ)
- モデル:Gemma 4 E2B (約4.5GB)
ステップ 1: LM Studio CLI をインストールして起動する
LM Studio の CLI バージョンをインストールし、サービスを開始して、使用可能なコマンドを確認します。
これは純粋なコマンド ライン環境であるため、このコマンド ラインのみの展開方法は Raspberry Pi に非常に適しています。
ステップ 2: モデルのストレージを SSD に切り替える
SDカードの頻繁な読み書きを避けるため、モデルのダウンロードディレクトリを外付けSSDに変更しました。
SSD を Raspberry Pi 5 に接続する体験は、明らかに以前のモデルよりも実用的です。長期的なローカル モデルでは、最初に SSD を使用することをお勧めします。
ステップ 3: Gemma 4 E2B をダウンロードしてロードする
ダウンロードが完了すると、モデルをメモリに正常にロードできるようになります。
公式情報によると、Gemma 4 シリーズには次の機能があります。
- エージェントシナリオのツール呼び出し機能 (関数呼び出し)
- マルチモーダル機能 (画像/ビデオを含む。小型モデルには音声関連機能もある)
128Kコンテキスト ウィンドウ- Apache 2.0 ライセンス (商用利用可能)
Raspberry Pi のハードウェア条件から判断すると、最初に試すには E2B レベルの方が適しています。
ステップ 4: API を開始して LAN アクセスを開く
モデルがロードされた後、まずローカル ポートで API (4000) を開始し、HTTP リクエストを通じてモデル リストが返されることを確認します。
問題は、デフォルトではこのマシンのみを監視し、LAN 上の他のデバイスは直接アクセスできないことです。
起動パラメータでホストを直接設定できないため、ポート転送に socat を使用して、Raspberry Pi の外部ポート要求を LM Studio の内部ポートにブリッジし、LAN アクセスを実現しました。
結果はうまくいきました。同じ LAN 上の MacBook 上のモデルのリストを正常にリクエストして取得することができました。
ステップ 5: エディター (Zed) にアクセスします。
LM Studio のローカル サービスは OpenAI API フォームと互換性があるため、カスタム base_url をサポートするほとんどのツールに直接アクセスできます。
Raspberry Pi 上の Gemma 4 インスタンスを指す新しい LLM プロバイダーを Zed に追加したところ、エディターでのチャット テストに合格しました。
実際の使用感の判断
このパッケージは次の用途に適しています。
- ローカルオートメーションスクリプト
- 同時実行性とリアルタイム要件が低い補助タスク
- 個人学習とエッジデバイスの実験
以下にはあまり適していません:
- 高頻度の対話型チャット
- 応答遅延の影響を受けやすい開発コラボレーション シナリオ
結論は
Gemma 4 (E2B) を Raspberry Pi 5 で実行することは実現可能で、予想よりもうまく機能します。
オフラインで実行し、ツールを入手し、軽度および中度のタスクを完了できるようにすることが目標である場合、このルートは試してみる価値があります。スムーズなリアルタイム インタラクションが目標の場合でも、より強力なハードウェアを入手することをお勧めします。