<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>Model Download on KnightLi Blog</title>
        <link>https://www.knightli.com/es/tags/model-download/</link>
        <description>Recent content in Model Download on KnightLi Blog</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>es</language>
        <lastBuildDate>Sun, 12 Apr 2026 09:31:38 +0800</lastBuildDate><atom:link href="https://www.knightli.com/es/tags/model-download/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>Cómo obtener modelos GGUF desde Hugging Face con llama.cpp</title>
        <link>https://www.knightli.com/es/2026/04/12/llama-cpp-hugging-face-gguf-models/</link>
        <pubDate>Sun, 12 Apr 2026 09:31:38 +0800</pubDate>
        
        <guid>https://www.knightli.com/es/2026/04/12/llama-cpp-hugging-face-gguf-models/</guid>
        <description>&lt;p&gt;&lt;code&gt;llama.cpp&lt;/code&gt; puede trabajar directamente con modelos GGUF alojados en Hugging Face, así que no siempre necesitas descargar manualmente los archivos del modelo primero.&lt;/p&gt;
&lt;p&gt;Si un repositorio de modelo ya ofrece archivos GGUF, puedes usar el argumento &lt;code&gt;-hf&lt;/code&gt; en la CLI, por ejemplo:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;llama-cli -hf ggml-org/gemma-3-1b-it-GGUF
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;De forma predeterminada, esto descarga desde Hugging Face.&lt;br&gt;
Si usas otro servicio que expone una API compatible con Hugging Face, puedes cambiar el endpoint de descarga con la variable de entorno &lt;code&gt;MODEL_ENDPOINT&lt;/code&gt;.&lt;/p&gt;
&lt;p&gt;Un detalle importante es que &lt;code&gt;llama.cpp&lt;/code&gt; solo puede usar directamente el formato &lt;code&gt;GGUF&lt;/code&gt;.&lt;br&gt;
Si tu modelo está en otro formato, primero necesitas convertirlo con los scripts &lt;code&gt;convert_*.py&lt;/code&gt; incluidos en el repositorio.&lt;/p&gt;
&lt;p&gt;Hugging Face también ofrece varias herramientas online relacionadas con &lt;code&gt;llama.cpp&lt;/code&gt;, entre ellas:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;convertir modelos a &lt;code&gt;GGUF&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;cuantizar pesos para reducir tamaño&lt;/li&gt;
&lt;li&gt;convertir adaptadores LoRA&lt;/li&gt;
&lt;li&gt;editar metadatos GGUF en el navegador&lt;/li&gt;
&lt;li&gt;alojar endpoints de inferencia &lt;code&gt;llama.cpp&lt;/code&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Si solo quieres la conclusión práctica, empieza por repositorios que ya ofrezcan &lt;code&gt;GGUF&lt;/code&gt; y luego usa &lt;code&gt;llama-cli -hf &amp;lt;user&amp;gt;/&amp;lt;model&amp;gt;&lt;/code&gt;. En la mayoría de casos, ese es el camino más simple.&lt;/p&gt;
</description>
        </item>
        
    </channel>
</rss>
