如果你在 Windows 下執行下面這條命令:
|
|
並看到類似錯誤:
|
|
通常不是 CUDA 或 llama.cpp 本身有問題,而是程式在目前環境裡沒有正確取得系統憑證鏈,導致 HTTPS 驗證失敗。
從錯誤訊息來看,ggml-rpc.dll 和 ggml-cpu-alderlake.dll 都已經正常載入,代表執行環境本身大致可用,問題主要集中在模型下載階段。
最省事的辦法:先手動下載模型
如果你只是想盡快跑起來,本機手動下載通常最穩。
- 打開對應的 Hugging Face 倉庫頁面。
- 在
Files and versions裡下載需要的.gguf檔案。 - 下載完成後,直接用本機檔案路徑執行:
|
|
這樣可以繞過 -hf 下載階段的 SSL 驗證問題,適合先確認模型能不能正常推理。
如果還想繼續用 -hf 自動下載
可以手動指定憑證檔路徑,讓程式在目前工作階段裡找到可用的 CA 憑證。
cacert.pem 可以從 curl 官方維護的 CA Extract 頁面取得:
如果用瀏覽器下載,打開上面的直接下載地址後儲存為 cacert.pem 即可。也可以在 PowerShell 裡下載到固定目錄,例如:
|
|
下載完成後,在命令列裡設定:
|
|
再重新執行原本的命令:
|
|
如果問題確實來自憑證鏈,這種方式通常可以直接解決。