<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>Hugging Face on KnightLi Blog</title>
        <link>https://www.knightli.com/es/tags/hugging-face/</link>
        <description>Recent content in Hugging Face on KnightLi Blog</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>es</language>
        <lastBuildDate>Sat, 18 Apr 2026 10:20:00 +0800</lastBuildDate><atom:link href="https://www.knightli.com/es/tags/hugging-face/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>Gemma 4 E4B Sin censura versus oficial: lo que realmente cambia</title>
        <link>https://www.knightli.com/es/2026/04/18/gemma-4-e4b-uncensored-vs-official/</link>
        <pubDate>Sat, 18 Apr 2026 10:20:00 +0800</pubDate>
        
        <guid>https://www.knightli.com/es/2026/04/18/gemma-4-e4b-uncensored-vs-official/</guid>
        <description>&lt;p&gt;Si ve un modelo como &lt;code&gt;HauhauCS/Gemma-4-E4B-Uncensored-HauhauCS-Aggressive&lt;/code&gt;, el punto más importante es este: &lt;strong&gt;no es un nuevo modelo base de Google&lt;/strong&gt;. Es una versión derivada construida sobre el &lt;code&gt;google/gemma-4-E4B-it&lt;/code&gt; oficial, pero con un comportamiento de alineación impulsado intencionalmente hacia menos rechazos.&lt;/p&gt;
&lt;p&gt;Eso significa que la verdadera diferencia suele ser &lt;strong&gt;la política de comportamiento y el estilo de respuesta&lt;/strong&gt;, no una arquitectura completamente nueva.&lt;/p&gt;
&lt;h2 id=&#34;lo-que-afirma-explícitamente-el-modelo-derivado&#34;&gt;Lo que afirma explícitamente el modelo derivado
&lt;/h2&gt;&lt;p&gt;Según su tarjeta modelo Hugging Face, el comunicado de HauhauCS dice:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;está basado en &lt;code&gt;google/gemma-4-E4B-it&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;&amp;ldquo;no realiza cambios en los conjuntos de datos ni en las capacidades&amp;rdquo;&lt;/li&gt;
&lt;li&gt;es &amp;ldquo;simplemente sin negativas&amp;rdquo;&lt;/li&gt;
&lt;li&gt;la variante &amp;ldquo;Agresiva&amp;rdquo; está &amp;ldquo;totalmente desbloqueada y no rechaza indicaciones&amp;rdquo;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Esas son las afirmaciones del creador, no un punto de referencia independiente. Aún así, te dicen muy claramente el posicionamiento previsto: se trata de un derivado no oficial optimizado para reducir los fallos de seguridad.&lt;/p&gt;
&lt;h2 id=&#34;modelo-oficial-versus-derivado-sin-censura&#34;&gt;Modelo oficial versus derivado &amp;ldquo;sin censura&amp;rdquo;
&lt;/h2&gt;&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;Dimensión&lt;/th&gt;
          &lt;th&gt;Oficial &lt;code&gt;google/gemma-4-E4B-it&lt;/code&gt;&lt;/th&gt;
          &lt;th&gt;&lt;code&gt;Gemma-4-E4B-Sin censura-HauhauCS-Agresivo&lt;/code&gt;&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;Fuente&lt;/td&gt;
          &lt;td&gt;Lanzamiento oficial de Google&lt;/td&gt;
          &lt;td&gt;Derivado de terceros sobre Hugging Face&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;Arquitectura básica&lt;/td&gt;
          &lt;td&gt;Modelo Gemma 4 E4B ajustado por instrucciones&lt;/td&gt;
          &lt;td&gt;Misma familia base, descrita explícitamente como basada en &lt;code&gt;google/gemma-4-E4B-it&lt;/code&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;Objetivo principal&lt;/td&gt;
          &lt;td&gt;Asistente útil de uso general con marcos de uso responsable&lt;/td&gt;
          &lt;td&gt;Reducir las negativas y seguir respondiendo incluso cuando el modelo oficial pueda decaer&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;Postura de seguridad&lt;/td&gt;
          &lt;td&gt;Alineado con los documentos de seguridad de la familia Gemma y la política de uso prohibido&lt;/td&gt;
          &lt;td&gt;Comportamiento de rechazo intencionalmente debilitado&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;Estilo de respuesta&lt;/td&gt;
          &lt;td&gt;Es más probable que rechace, redirija o suavice determinadas solicitudes&lt;/td&gt;
          &lt;td&gt;Es más probable que responda directamente, incluidas las indicaciones que el modelo oficial puede bloquear&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;Perfil de riesgo&lt;/td&gt;
          &lt;td&gt;Menor riesgo de uso indebido por defecto, pero aún no está libre de riesgos&lt;/td&gt;
          &lt;td&gt;Mayor riesgo de uso indebido, mayor probabilidad de resultados inseguros o no conformes&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;Previsibilidad en productos&lt;/td&gt;
          &lt;td&gt;Más fácil de justificar en aplicaciones normales y entornos empresariales&lt;/td&gt;
          &lt;td&gt;Más difícil de justificar en implementaciones públicas, empresariales o sensibles a las políticas&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;Carga de cumplimiento&lt;/td&gt;
          &lt;td&gt;Todavía requiere salvaguardias a nivel de aplicación&lt;/td&gt;
          &lt;td&gt;Requiere salvaguardias posteriores aún más estrictas porque el modelo en sí es menos restrictivo&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;la-diferencia-principal-es-la-alineación-no-la-capacidad-bruta&#34;&gt;La diferencia principal es la alineación, no la capacidad bruta
&lt;/h2&gt;&lt;p&gt;Muchos usuarios tratan erróneamente &amp;ldquo;sin censura&amp;rdquo; como si significara &amp;ldquo;más inteligente&amp;rdquo;. Ese suele ser el marco equivocado.&lt;/p&gt;
&lt;p&gt;Para una derivada como esta, lo que cambia primero es:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;con qué frecuencia el modelo se niega&lt;/li&gt;
&lt;li&gt;con qué firmeza sigue instrucciones perjudiciales o sensibles a las políticas&lt;/li&gt;
&lt;li&gt;cuánto filtrado queda en sus respuestas finales&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Qué &lt;strong&gt;no&lt;/strong&gt; cambia automáticamente:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;la arquitectura familiar subyacente de Gemma 4&lt;/li&gt;
&lt;li&gt;clase de ventana de contexto&lt;/li&gt;
&lt;li&gt;clase de apoyo multimodal&lt;/li&gt;
&lt;li&gt;techo de razonamiento general&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;En otras palabras, un derivado sin censura a menudo se describe mejor como un &lt;strong&gt;ajuste de comportamiento diferente&lt;/strong&gt; de la misma familia de modelos, no como un modelo de nivel superior.&lt;/p&gt;
&lt;h2 id=&#34;por-qué-la-versión-oficial-se-comporta-de-manera-diferente&#34;&gt;Por qué la versión oficial se comporta de manera diferente
&lt;/h2&gt;&lt;p&gt;Los materiales oficiales de Gemma de Google enmarcan a la familia como creada para el desarrollo responsable de la IA. La tarjeta modelo Gemma destaca el uso indebido, el contenido dañino, la privacidad y los riesgos de sesgo, y la Política de uso prohibido de Gemma de Google prohíbe explícitamente el uso de Gemma o modelos derivados para:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;facilitar actividades peligrosas, ilegales o maliciosas&lt;/li&gt;
&lt;li&gt;generar contenido dañino o engañoso&lt;/li&gt;
&lt;li&gt;anular o eludir los filtros de seguridad&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;De modo que el modelo oficial no es simplemente &amp;ldquo;más conservador&amp;rdquo; por casualidad. Su política circundante y su postura de despliegue prevista son deliberadamente diferentes.&lt;/p&gt;
&lt;h2 id=&#34;cuando-el-modelo-oficial-es-la-mejor-opción&#34;&gt;Cuando el modelo oficial es la mejor opción
&lt;/h2&gt;&lt;p&gt;Utilice la ruta oficial &lt;code&gt;google/gemma-4-E4B-it&lt;/code&gt; si le interesa:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;implementación de productos&lt;/li&gt;
&lt;li&gt;uso empresarial o en equipo&lt;/li&gt;
&lt;li&gt;menor exposición legal y política&lt;/li&gt;
&lt;li&gt;menos salidas obviamente inseguras&lt;/li&gt;
&lt;li&gt;documentación y revisión más sencillas&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Para la mayoría de las aplicaciones normales, este es el valor predeterminado más seguro.&lt;/p&gt;
&lt;h2 id=&#34;cuando-la-gente-elige-el-derivado-sin-censura&#34;&gt;Cuando la gente elige el derivado sin censura
&lt;/h2&gt;&lt;p&gt;Los usuarios suelen elegir un derivado sin censura para:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;experimentación privada local&lt;/li&gt;
&lt;li&gt;pruebas donde el modelo oficial se niega demasiado pronto&lt;/li&gt;
&lt;li&gt;juego de roles o indicaciones creativas abiertas&lt;/li&gt;
&lt;li&gt;comparar el comportamiento de alineación entre variantes&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Pero esto conlleva una verdadera compensación: usted está transfiriendo más responsabilidad de seguridad del proveedor del modelo a usted mismo.&lt;/p&gt;
&lt;h2 id=&#34;conclusión-práctica&#34;&gt;Conclusión práctica
&lt;/h2&gt;&lt;p&gt;La diferencia entre un Gemma 4 E4B llamado &amp;ldquo;jailbreak&amp;rdquo; y la versión oficial normal es principalmente la siguiente:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;la versión oficial está optimizada para su capacidad utilizable &lt;strong&gt;con barandillas&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;el derivado sin censura está optimizado para menos rechazos &lt;strong&gt;con barandillas más débiles&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Eso &lt;strong&gt;no&lt;/strong&gt; fortalece automáticamente el modelo sin censura. Principalmente lo hace más permisivo.&lt;/p&gt;
&lt;p&gt;Si su objetivo es una implementación estable, explicable y de menor riesgo, utilice primero el modelo oficial. Si su objetivo es la experimentación local y comprende las ventajas y desventajas de cumplimiento y seguridad, entonces un derivado sin censura es una variante de comportamiento que vale la pena probar por separado, no un reemplazo &amp;ldquo;mejor&amp;rdquo; directo.&lt;/p&gt;
&lt;h2 id=&#34;fuentes&#34;&gt;Fuentes
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;Cara de abrazo: &lt;a class=&#34;link&#34; href=&#34;https://huggingface.co/HauhauCS/Gemma-4-E4B-Uncensored-HauhauCS-Aggressive&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;HauhauCS/Gemma-4-E4B-Uncensored-HauhauCS-Aggressive&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;Cara de abrazo: &lt;a class=&#34;link&#34; href=&#34;https://huggingface.co/google/gemma-4-E4B-it&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;google/gemma-4-E4B-it&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;Google AI para desarrolladores: &lt;a class=&#34;link&#34; href=&#34;https://ai.google.dev/gemma/prohibited_use_policy&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Política de uso prohibido de Gemma&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;Google AI para desarrolladores: &lt;a class=&#34;link&#34; href=&#34;https://ai.google.dev/gemma/docs/core/model_card&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;tarjeta modelo Gemma&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
</description>
        </item>
        <item>
        <title>¿Dónde guarda llama-cli -hf los modelos de caras abrazadas de forma predeterminada?</title>
        <link>https://www.knightli.com/es/2026/04/17/llama-cli-hf-download-default-cache-path/</link>
        <pubDate>Fri, 17 Apr 2026 14:48:04 +0800</pubDate>
        
        <guid>https://www.knightli.com/es/2026/04/17/llama-cli-hf-download-default-cache-path/</guid>
        <description>&lt;p&gt;Si usa &lt;code&gt;llama-cli&lt;/code&gt; para descargar y ejecutar un modelo directamente desde Hugging Face, por ejemplo:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;llama-cli -hf unsloth/gemma-4-E4B-it-GGUF
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;esto utiliza el soporte de descarga de Hugging Face integrado en &lt;code&gt;llama.cpp&lt;/code&gt;. Las compilaciones recientes de &lt;code&gt;llama.cpp&lt;/code&gt; almacenan modelos descargados con &lt;code&gt;-hf&lt;/code&gt; en el directorio de caché estándar de Hugging Face Hub.&lt;/p&gt;
&lt;h2 id=&#34;ubicaciones-de-caché-predeterminadas&#34;&gt;Ubicaciones de caché predeterminadas
&lt;/h2&gt;&lt;p&gt;La ubicación del caché utilizada por &lt;code&gt;llama-cli -hf&lt;/code&gt; se controla primero mediante la variable de entorno &lt;code&gt;LLAMA_CACHE&lt;/code&gt;. Si &lt;code&gt;LLAMA_CACHE&lt;/code&gt; no está configurado, &lt;code&gt;llama.cpp&lt;/code&gt; verifica las variables de caché de Hugging Face como &lt;code&gt;HF_HUB_CACHE&lt;/code&gt;, &lt;code&gt;HUGGINGFACE_HUB_CACHE&lt;/code&gt; y &lt;code&gt;HF_HOME&lt;/code&gt;.&lt;/p&gt;
&lt;p&gt;Si no se establece ninguna de esas variables, las rutas predeterminadas comunes son:&lt;/p&gt;
&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;Sistema&lt;/th&gt;
          &lt;th&gt;Directorio de caché predeterminado&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;Linux&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;~/.cache/huggingface/hub&lt;/code&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;MacOS&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;~/.cache/huggingface/hub&lt;/code&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;Ventanas&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;%PERFIL DE USUARIO%\.cache\huggingface\hub&lt;/code&gt;&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;En Windows, &lt;code&gt;%USERPROFILE%&lt;/code&gt; normalmente se expande a:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-text&#34; data-lang=&#34;text&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;C:\Users\用户名
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Entonces el directorio de caché predeterminado es aproximadamente:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-text&#34; data-lang=&#34;text&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;C:\Users\用户名\.cache\huggingface\hub
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;h2 id=&#34;cómo-cambiar-el-directorio-de-caché-llama-cli&#34;&gt;Cómo cambiar el directorio de caché llama-cli
&lt;/h2&gt;&lt;p&gt;Configure &lt;code&gt;LLAMA_CACHE&lt;/code&gt; si desea almacenar los modelos descargados en un disco específico o en una carpeta específica. También puedes seguir la convención de Hugging Face y configurar &lt;code&gt;HF_HOME&lt;/code&gt;; en ese caso, el directorio de caché del concentrador será &lt;code&gt;$HF_HOME/hub&lt;/code&gt;.&lt;/p&gt;
&lt;p&gt;Ejemplo de CMD temporal de Windows:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-fallback&#34; data-lang=&#34;fallback&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;set LLAMA_CACHE=D:\models\llama-cache
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;llama-cli -hf unsloth/gemma-4-E4B-it-GGUF
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Ejemplo de PowerShell temporal:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-powershell&#34; data-lang=&#34;powershell&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;nv&#34;&gt;$env:LLAMA_CACHE&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;=&lt;/span&gt;&lt;span class=&#34;s2&#34;&gt;&amp;#34;D:\models\llama-cache&amp;#34;&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;nb&#34;&gt;llama-cli&lt;/span&gt; &lt;span class=&#34;n&#34;&gt;-hf&lt;/span&gt; &lt;span class=&#34;n&#34;&gt;unsloth&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;/&lt;/span&gt;&lt;span class=&#34;n&#34;&gt;gemma&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;-&lt;/span&gt;&lt;span class=&#34;mf&#34;&gt;4&lt;/span&gt;&lt;span class=&#34;n&#34;&gt;-E4B-it-GGUF&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Ejemplo temporal de Linux/macOS:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;nb&#34;&gt;export&lt;/span&gt; &lt;span class=&#34;nv&#34;&gt;LLAMA_CACHE&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;=&lt;/span&gt;/data/models/llama-cache
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;llama-cli -hf unsloth/gemma-4-E4B-it-GGUF
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;h2 id=&#34;resumen&#34;&gt;Resumen
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;code&gt;llama-cli -hf ...&lt;/code&gt; usa la lógica de descarga de &lt;code&gt;llama.cpp&lt;/code&gt;, pero las compilaciones recientes utilizan de forma predeterminada el caché de Hugging Face Hub.&lt;/li&gt;
&lt;li&gt;Valor predeterminado de Linux/macOS: &lt;code&gt;~/.cache/huggingface/hub&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;Valor predeterminado de Windows: &lt;code&gt;%USERPROFILE%\.cache\huggingface\hub&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;Para cambiar la ubicación, configure &lt;code&gt;LLAMA_CACHE&lt;/code&gt; o configure &lt;code&gt;HF_HOME&lt;/code&gt; / &lt;code&gt;HF_HUB_CACHE&lt;/code&gt;&lt;/li&gt;
&lt;/ul&gt;
</description>
        </item>
        <item>
        <title>Cómo reparar el error de verificación del certificado SSL cuando llama-cli se descarga desde Hugging Face en Windows</title>
        <link>https://www.knightli.com/es/2026/04/17/llama-cli-hugging-face-ssl-certificate-failed-on-windows/</link>
        <pubDate>Fri, 17 Apr 2026 14:20:29 +0800</pubDate>
        
        <guid>https://www.knightli.com/es/2026/04/17/llama-cli-hugging-face-ssl-certificate-failed-on-windows/</guid>
        <description>&lt;p&gt;Si ejecuta este comando en Windows:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-fallback&#34; data-lang=&#34;fallback&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;llama-cli -hf unsloth/gemma-4-E4B-it-GGUF
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;y veo un error como este:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-text&#34; data-lang=&#34;text&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;get_repo_commit: error: HTTPLIB failed: SSL server verification failed
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;error: failed to download model from Hugging Face
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Por lo general, el problema no es CUDA ni &lt;code&gt;llama.cpp&lt;/code&gt;. Más a menudo, el programa no puede acceder correctamente a la cadena de certificados del sistema en el entorno actual, por lo que falla la verificación HTTPS.&lt;/p&gt;
&lt;p&gt;Desde el registro, &lt;code&gt;ggml-rpc.dll&lt;/code&gt; y &lt;code&gt;ggml-cpu-alderlake.dll&lt;/code&gt; se cargaron correctamente, lo que significa que el entorno de ejecución está prácticamente bien. El problema está principalmente en el paso de descarga del modelo.&lt;/p&gt;
&lt;h2 id=&#34;la-solución-más-sencilla-descargar-el-modelo-manualmente&#34;&gt;La solución más sencilla: descargar el modelo manualmente
&lt;/h2&gt;&lt;p&gt;Si sólo desea que funcione rápidamente, descargar el modelo manualmente suele ser la opción más estable.&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;Abra la página del repositorio de Hugging Face correspondiente.&lt;/li&gt;
&lt;li&gt;Descargue el archivo &lt;code&gt;.gguf&lt;/code&gt; requerido desde &lt;code&gt;Archivos y versiones&lt;/code&gt;.&lt;/li&gt;
&lt;li&gt;Una vez finalizada la descarga, ejecútela con la ruta del archivo local:&lt;/li&gt;
&lt;/ol&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-gdscript3&#34; data-lang=&#34;gdscript3&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;n&#34;&gt;llama&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;-&lt;/span&gt;&lt;span class=&#34;n&#34;&gt;cli&lt;/span&gt; &lt;span class=&#34;o&#34;&gt;-&lt;/span&gt;&lt;span class=&#34;n&#34;&gt;m&lt;/span&gt; &lt;span class=&#34;n&#34;&gt;C&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;\&lt;span class=&#34;n&#34;&gt;Users&lt;/span&gt;\&lt;span class=&#34;n&#34;&gt;knightli&lt;/span&gt;\&lt;span class=&#34;n&#34;&gt;Downloads&lt;/span&gt;\&lt;span class=&#34;n&#34;&gt;gemma&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;-&lt;/span&gt;&lt;span class=&#34;mi&#34;&gt;4&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;-&lt;/span&gt;&lt;span class=&#34;n&#34;&gt;e4b&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;-&lt;/span&gt;&lt;span class=&#34;n&#34;&gt;it&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;.&lt;/span&gt;&lt;span class=&#34;n&#34;&gt;gguf&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Esto omite la verificación SSL durante el paso de descarga &lt;code&gt;-hf&lt;/code&gt; y es útil cuando solo desea verificar que el modelo se puede ejecutar localmente.&lt;/p&gt;
&lt;h2 id=&#34;si-aún-deseas-utilizar-la-descarga-automática--hf&#34;&gt;Si aún deseas utilizar la descarga automática &lt;code&gt;-hf&lt;/code&gt;
&lt;/h2&gt;&lt;p&gt;Puede especificar manualmente una ruta de archivo de certificado para que el programa pueda encontrar un paquete de CA utilizable en la sesión actual.&lt;/p&gt;
&lt;p&gt;&lt;code&gt;cacert.pem&lt;/code&gt; se puede obtener de la página de extracto de CA mantenida por el proyecto curl:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Página: &lt;a class=&#34;link&#34; href=&#34;https://curl.se/docs/caextract.html&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://curl.se/docs/caextract.html&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;Descarga directa: &lt;a class=&#34;link&#34; href=&#34;https://curl.se/ca/cacert.pem&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://curl.se/ca/cacert.pem&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Si lo descarga en un navegador, abra el enlace de descarga directa y guárdelo como &lt;code&gt;cacert.pem&lt;/code&gt;. También puedes descargarlo a un directorio fijo con PowerShell:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-powershell&#34; data-lang=&#34;powershell&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;nb&#34;&gt;New-Item&lt;/span&gt; &lt;span class=&#34;n&#34;&gt;-ItemType&lt;/span&gt; &lt;span class=&#34;n&#34;&gt;Directory&lt;/span&gt; &lt;span class=&#34;n&#34;&gt;-Force&lt;/span&gt; &lt;span class=&#34;n&#34;&gt;C:&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;\&lt;/span&gt;&lt;span class=&#34;n&#34;&gt;certs&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;nb&#34;&gt;Invoke-WebRequest&lt;/span&gt; &lt;span class=&#34;n&#34;&gt;-Uri&lt;/span&gt; &lt;span class=&#34;n&#34;&gt;https&lt;/span&gt;&lt;span class=&#34;err&#34;&gt;:&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;//&lt;/span&gt;&lt;span class=&#34;n&#34;&gt;curl&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;.&lt;/span&gt;&lt;span class=&#34;n&#34;&gt;se&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;/&lt;/span&gt;&lt;span class=&#34;n&#34;&gt;ca&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;/&lt;/span&gt;&lt;span class=&#34;n&#34;&gt;cacert&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;.&lt;/span&gt;&lt;span class=&#34;py&#34;&gt;pem&lt;/span&gt; &lt;span class=&#34;n&#34;&gt;-OutFile&lt;/span&gt; &lt;span class=&#34;n&#34;&gt;C:&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;\&lt;/span&gt;&lt;span class=&#34;n&#34;&gt;certs&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;\&lt;/span&gt;&lt;span class=&#34;n&#34;&gt;cacert&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;.&lt;/span&gt;&lt;span class=&#34;py&#34;&gt;pem&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Una vez finalizada la descarga, configure estas variables en la línea de comando:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-fallback&#34; data-lang=&#34;fallback&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;set SSL_CERT_FILE=C:\certs\cacert.pem
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;set CURL_CA_BUNDLE=C:\certs\cacert.pem
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Luego ejecute el comando original nuevamente:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-fallback&#34; data-lang=&#34;fallback&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;llama-cli -hf unsloth/gemma-4-E4B-it-GGUF
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Si el problema realmente proviene de la cadena de certificados, esto generalmente lo soluciona directamente.&lt;/p&gt;
</description>
        </item>
        <item>
        <title>Descargar modelos GGUF desde Hugging Face e importarlos en Ollama</title>
        <link>https://www.knightli.com/es/2026/04/09/import-huggingface-gguf-into-ollama/</link>
        <pubDate>Thu, 09 Apr 2026 11:00:07 +0800</pubDate>
        
        <guid>https://www.knightli.com/es/2026/04/09/import-huggingface-gguf-into-ollama/</guid>
        <description>&lt;p&gt;Si cierto modelo no tiene una versión preparada en la biblioteca oficial de Ollama, o si quieres usar un archivo &lt;code&gt;GGUF&lt;/code&gt; específico de Hugging Face, puedes descargarlo manualmente e importarlo después en Ollama.&lt;/p&gt;
&lt;h2 id=&#34;paso-1-descargar-el-archivo-gguf-desde-hugging-face&#34;&gt;Paso 1: descargar el archivo GGUF desde Hugging Face
&lt;/h2&gt;&lt;p&gt;Primero busca en Hugging Face el archivo &lt;code&gt;GGUF&lt;/code&gt; correspondiente al modelo objetivo. Normalmente verás varias versiones cuantizadas, por ejemplo:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;Q4_K_M&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;&lt;code&gt;Q5_K_M&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;&lt;code&gt;Q8_0&lt;/code&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Qué versión elegir depende de tu VRAM, memoria y del equilibrio que quieras entre velocidad y calidad. Después de descargarlo, coloca el archivo &lt;code&gt;.gguf&lt;/code&gt; en un directorio fijo para referenciarlo directamente en el &lt;code&gt;Modelfile&lt;/code&gt;.&lt;/p&gt;
&lt;h2 id=&#34;paso-2-escribir-el-modelfile&#34;&gt;Paso 2: escribir el Modelfile
&lt;/h2&gt;&lt;p&gt;Crea un archivo &lt;code&gt;Modelfile&lt;/code&gt; en el mismo directorio que el modelo. La forma mínima es:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-text&#34; data-lang=&#34;text&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;FROM ./model.gguf
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Si el nombre del archivo es distinto, cámbialo por el nombre real, por ejemplo:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-text&#34; data-lang=&#34;text&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;FROM ./gemma-3-12b-it-q4_k_m.gguf
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Si solo quieres ponerlo en marcha primero, normalmente esta línea &lt;code&gt;FROM&lt;/code&gt; basta.&lt;/p&gt;
&lt;h2 id=&#34;paso-3-importar-a-ollama&#34;&gt;Paso 3: importar a Ollama
&lt;/h2&gt;&lt;p&gt;Después ejecuta:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;ollama create myModelName -f Modelfile
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;ul&gt;
&lt;li&gt;&lt;code&gt;myModelName&lt;/code&gt; es el nombre local del modelo que quieres usar dentro de Ollama&lt;/li&gt;
&lt;li&gt;&lt;code&gt;-f Modelfile&lt;/code&gt; indica que se crea el modelo desde este archivo de configuración&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Cuando la creación termine correctamente, ese archivo GGUF se convertirá en un modelo local que puede llamarse directamente.&lt;/p&gt;
&lt;h2 id=&#34;paso-4-ejecutar-el-modelo&#34;&gt;Paso 4: ejecutar el modelo
&lt;/h2&gt;&lt;p&gt;Después de crearlo, ejecútalo directamente:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;ollama run myModelName
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;A partir de ahí, su uso es básicamente igual al de un modelo descargado con &lt;code&gt;ollama pull&lt;/code&gt;.&lt;/p&gt;
&lt;h2 id=&#34;cómo-ver-el-modelfile-de-un-modelo-existente&#34;&gt;Cómo ver el Modelfile de un modelo existente
&lt;/h2&gt;&lt;p&gt;Si no estás seguro de cómo escribir el &lt;code&gt;Modelfile&lt;/code&gt;, puedes mirar directamente la configuración de un modelo existente:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;ollama show --modelfile llama3.2
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Este comando imprimirá el contenido del &lt;code&gt;Modelfile&lt;/code&gt; de &lt;code&gt;llama3.2&lt;/code&gt;, útil como referencia:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Cómo debería escribirse &lt;code&gt;FROM&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;Cómo se organizan la plantilla y el system prompt&lt;/li&gt;
&lt;li&gt;Cómo se declaran los parámetros&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;cuándo-conviene-esta-ruta&#34;&gt;Cuándo conviene esta ruta
&lt;/h2&gt;&lt;p&gt;Estos escenarios son adecuados para importar manualmente desde Hugging Face:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;La biblioteca oficial de Ollama todavía no tiene el modelo que necesitas&lt;/li&gt;
&lt;li&gt;Quieres usar una versión cuantizada concreta&lt;/li&gt;
&lt;li&gt;Ya descargaste manualmente el archivo &lt;code&gt;GGUF&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;Quieres controlar con más detalle la forma de empaquetar el modelo&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Si ya existe una versión oficial lista, usar &lt;code&gt;pull&lt;/code&gt; suele ser más sencillo; pero cuando necesitas una cuantización específica o empaquetado personalizado, &lt;code&gt;GGUF + Modelfile&lt;/code&gt; es más flexible.&lt;/p&gt;
&lt;h2 id=&#34;precauciones-habituales&#34;&gt;Precauciones habituales
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;La ruta después de &lt;code&gt;FROM&lt;/code&gt; debe coincidir con la ubicación real del archivo &lt;code&gt;.gguf&lt;/code&gt;.&lt;/li&gt;
&lt;li&gt;Si el nombre de archivo contiene espacios o caracteres especiales, se recomienda renombrarlo a algo más simple.&lt;/li&gt;
&lt;li&gt;Las distintas cuantizaciones &lt;code&gt;GGUF&lt;/code&gt; influyen mucho en memoria y velocidad; importarlo con éxito no significa que vaya a ejecutarse con fluidez.&lt;/li&gt;
&lt;li&gt;Si el modelo es de chat, normalmente tendrás que ajustar después la plantilla de prompt según su formato para obtener resultados más estables.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;conclusión&#34;&gt;Conclusión
&lt;/h2&gt;&lt;p&gt;Descargar un archivo &lt;code&gt;GGUF&lt;/code&gt; desde Hugging Face e importarlo en Ollama no es complicado. Prepara el archivo del modelo, escribe un &lt;code&gt;Modelfile&lt;/code&gt; mínimo y ejecuta &lt;code&gt;ollama create&lt;/code&gt;; con eso puedes conectar modelos &lt;code&gt;GGUF&lt;/code&gt; de terceros a Ollama.&lt;/p&gt;
</description>
        </item>
        
    </channel>
</rss>
