Si ejecuta este comando en Windows:
|
|
y veo un error como este:
|
|
Por lo general, el problema no es CUDA ni llama.cpp. Más a menudo, el programa no puede acceder correctamente a la cadena de certificados del sistema en el entorno actual, por lo que falla la verificación HTTPS.
Desde el registro, ggml-rpc.dll y ggml-cpu-alderlake.dll se cargaron correctamente, lo que significa que el entorno de ejecución está prácticamente bien. El problema está principalmente en el paso de descarga del modelo.
La solución más sencilla: descargar el modelo manualmente
Si sólo desea que funcione rápidamente, descargar el modelo manualmente suele ser la opción más estable.
- Abra la página del repositorio de Hugging Face correspondiente.
- Descargue el archivo
.ggufrequerido desdeArchivos y versiones. - Una vez finalizada la descarga, ejecútela con la ruta del archivo local:
|
|
Esto omite la verificación SSL durante el paso de descarga -hf y es útil cuando solo desea verificar que el modelo se puede ejecutar localmente.
Si aún deseas utilizar la descarga automática -hf
Puede especificar manualmente una ruta de archivo de certificado para que el programa pueda encontrar un paquete de CA utilizable en la sesión actual.
cacert.pem se puede obtener de la página de extracto de CA mantenida por el proyecto curl:
- Página: https://curl.se/docs/caextract.html
- Descarga directa: https://curl.se/ca/cacert.pem
Si lo descarga en un navegador, abra el enlace de descarga directa y guárdelo como cacert.pem. También puedes descargarlo a un directorio fijo con PowerShell:
|
|
Una vez finalizada la descarga, configure estas variables en la línea de comando:
|
|
Luego ejecute el comando original nuevamente:
|
|
Si el problema realmente proviene de la cadena de certificados, esto generalmente lo soluciona directamente.