Windows で次のコマンドを実行したとします。
|
|
そして、次のようなエラーが表示される場合があります。
|
|
この場合、問題は CUDA や llama.cpp 本体ではないことが多いです。多くの場合、現在の環境でプログラムがシステムの証明書チェーンを正しく参照できず、HTTPS の検証に失敗しています。
ログを見ると、ggml-rpc.dll と ggml-cpu-alderlake.dll は正常に読み込まれています。つまり、実行環境自体はおおむね利用可能で、問題は主にモデルのダウンロード段階にあります。
一番手軽な方法:先にモデルを手動ダウンロードする
とにかく早く動かしたい場合は、ローカルに手動でダウンロードする方法がもっとも安定しています。
- 対象の Hugging Face リポジトリページを開きます。
Files and versionsから必要な.ggufファイルをダウンロードします。- ダウンロード後、ローカルファイルのパスを指定して実行します。
|
|
この方法なら、-hf のダウンロード段階で発生する SSL 検証問題を回避できます。まずモデルが正常に推論できるか確認したい場合に向いています。
それでも -hf の自動ダウンロードを使いたい場合
証明書ファイルのパスを手動で指定し、現在のセッションで利用できる CA 証明書をプログラムに見つけさせます。
cacert.pem は curl 公式が管理している CA Extract ページから取得できます。
ブラウザでダウンロードする場合は、上の直接ダウンロード URL を開いて cacert.pem として保存します。PowerShell で固定ディレクトリにダウンロードすることもできます。
|
|
ダウンロード後、コマンドラインで次のように設定します。
|
|
その後、元のコマンドをもう一度実行します。
|
|
問題の原因が証明書チェーンにある場合、この方法で解決できることが多いです。