<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>GPU on KnightLi Blog</title>
        <link>https://www.knightli.com/es/tags/gpu/</link>
        <description>Recent content in GPU on KnightLi Blog</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>es</language>
        <lastBuildDate>Mon, 27 Apr 2026 08:51:10 +0800</lastBuildDate><atom:link href="https://www.knightli.com/es/tags/gpu/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>Cómo elegir una GPU en abril de 2026: qué modelos evitar y cuáles vale más la pena considerar</title>
        <link>https://www.knightli.com/es/2026/04/27/gpu-buying-guide-april-2026-model-picks/</link>
        <pubDate>Mon, 27 Apr 2026 08:51:10 +0800</pubDate>
        
        <guid>https://www.knightli.com/es/2026/04/27/gpu-buying-guide-april-2026-model-picks/</guid>
        <description>&lt;p&gt;Si te estás preparando para construir una PC, la GPU es la única parte en la que realmente no debes fijarte únicamente en si una tarjeta es nueva. En abril de 2026, algunos modelos ya son mucho más difíciles de justificar, mientras que otros no son perfectos, pero aún así parecen notablemente más razonables que las alternativas del mismo precio.&lt;/p&gt;
&lt;p&gt;Así que este artículo se salta la teoría y va directamente a modelos específicos.&lt;/p&gt;
&lt;h2 id=&#34;modelos-que-no-priorizaría&#34;&gt;Modelos que no priorizaría
&lt;/h2&gt;&lt;h2 id=&#34;1-rtx-5060-ti-8gb&#34;&gt;1. &lt;code&gt;RTX 5060 Ti 8GB&lt;/code&gt;
&lt;/h2&gt;&lt;p&gt;El mayor problema de esta tarjeta no es que sea inutilizable. El problema es que &amp;ldquo;8GB&amp;rdquo; ya se siente atrapado en un incómodo término medio en este momento.&lt;/p&gt;
&lt;p&gt;Si juegas principalmente a juegos en línea más livianos en configuraciones &lt;code&gt;1080p&lt;/code&gt; de media a alta, aún puede funcionar. Pero una vez que ingresa a cualquiera de estas áreas, la limitación aparece rápidamente:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Juegos AAA más nuevos&lt;/li&gt;
&lt;li&gt;Configuraciones de textura más altas&lt;/li&gt;
&lt;li&gt;&lt;code&gt;1440p&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;Uso mixto con inferencia de IA, edición o trabajo de productividad&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Si ya está considerando la &amp;ldquo;RTX 5060 Ti&amp;rdquo;, la decisión más segura suele ser ir directamente a la versión de &amp;ldquo;16 GB&amp;rdquo; en lugar de ahorrar un poco de presupuesto optando por la de &amp;ldquo;8 GB&amp;rdquo;.&lt;/p&gt;
&lt;p&gt;En resumen:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;RTX 5060 Ti 8GB&lt;/code&gt;: no recomendado&lt;/li&gt;
&lt;li&gt;&lt;code&gt;RTX 5060 Ti 16GB&lt;/code&gt;: claramente más vale la pena considerar&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;2-tarjetas-antiguas-y-caras-especialmente-rtx-3080-10gb-y-rtx-3070-ti-cuando-todavía-tienen-un-precio-elevado&#34;&gt;2. Tarjetas antiguas y caras, especialmente &lt;code&gt;RTX 3080 10GB&lt;/code&gt; y &lt;code&gt;RTX 3070 Ti&lt;/code&gt; cuando todavía tienen un precio elevado
&lt;/h2&gt;&lt;p&gt;El problema con estas tarjetas no es que el rendimiento sea completamente malo. El problema es que, en el mercado actual, comprarlos a menudo te pone en una situación incómoda:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;El consumo de energía no es bajo&lt;/li&gt;
&lt;li&gt;Ya no son nuevos&lt;/li&gt;
&lt;li&gt;La VRAM no es especialmente generosa&lt;/li&gt;
&lt;li&gt;Las fuentes del mercado de segunda mano suelen ser confusas&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;code&gt;RTX 3080 10GB&lt;/code&gt; es el ejemplo más claro. Si todavía tiene un precio alto, rápidamente se convierte en una tarjeta que parece sólida en el papel pero que se siente menos equilibrada en el uso real.&lt;/p&gt;
&lt;p&gt;&lt;code&gt;RTX 3070 Ti&lt;/code&gt; sigue la misma lógica. No es absolutamente imposible de comprar, pero si la diferencia de precio no es significativa, normalmente será mejor que busques algo más nuevo, algo con una VRAM más cómoda o algo más equilibrado en potencia y térmica.&lt;/p&gt;
&lt;h2 id=&#34;3-insignias-más-antiguas-con-un-historial-poco-claro-como-rtx-3090-y-rtx-3080-ti&#34;&gt;3. Insignias más antiguas con un historial poco claro, como &lt;code&gt;RTX 3090&lt;/code&gt; y &lt;code&gt;RTX 3080 Ti&lt;/code&gt;
&lt;/h2&gt;&lt;p&gt;Es fácil querer estas dos cartas por razones obvias:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Los nombres todavía suenan fuertes&lt;/li&gt;
&lt;li&gt;El rendimiento del papel no es débil&lt;/li&gt;
&lt;li&gt;Son muy visibles en el mercado de segunda mano.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Lo que realmente hay que tener en cuenta es de dónde vienen.&lt;/p&gt;
&lt;p&gt;Si estás comprando:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Una tarjeta extraída&lt;/li&gt;
&lt;li&gt;Una tarjeta reparada&lt;/li&gt;
&lt;li&gt;Una tarjeta usada con un historial poco claro.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;entonces el riesgo suele ser mucho mayor que con una tarjeta minorista normal. Una tarjeta como la &amp;ldquo;RTX 3090&amp;rdquo; parece atractiva debido a la VRAM de &amp;ldquo;24 GB&amp;rdquo;, pero el calor, la entrega de energía, el estado del silicio y el historial de uso pasado se convierten en preocupaciones mayores de las que serían en una tarjeta nueva y sencilla.&lt;/p&gt;
&lt;p&gt;Si aún no sabe exactamente lo que está comprando y no planea dedicar tiempo a revisar la tarjeta con atención, estos buques insignia más antiguos generalmente no son algo que tocaría casualmente.&lt;/p&gt;
&lt;h2 id=&#34;4-rtx-5070-cuando-el-precio-no-es-el-adecuado&#34;&gt;4. &lt;code&gt;RTX 5070&lt;/code&gt; cuando el precio no es el adecuado
&lt;/h2&gt;&lt;p&gt;&lt;code&gt;RTX 5070&lt;/code&gt; no es una tarjeta que sea automáticamente mala. El problema es que el precio tiene que tener sentido.&lt;/p&gt;
&lt;p&gt;Su incomodidad aparece cuando la brecha entre este y el &lt;code&gt;RTX 5070 Ti&lt;/code&gt; no es lo suficientemente grande. En ese caso, muchos compradores acaban sintiéndose extrañamente insatisfechos.&lt;/p&gt;
&lt;p&gt;El patrón suele verse así:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Compra el &lt;code&gt;5070&lt;/code&gt;: sigues pensando que con un poco más te habrías comprado el &lt;code&gt;5070 Ti&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;No estires el presupuesto: aún sabes que compraste la tarjeta &amp;ldquo;casi&amp;rdquo;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Por lo tanto, &amp;ldquo;RTX 5070&amp;rdquo; no es algo que deba ignorarse por completo, pero &lt;strong&gt;vale la pena considerarlo solo cuando el precio es claramente correcto&lt;/strong&gt;. Si el precio se sitúa en una zona intermedia incómoda, rápidamente se convierte en una tarjeta que tiene sentido teórico pero que no se siente muy bien en la práctica.&lt;/p&gt;
&lt;h2 id=&#34;modelos-que-tienen-más-sentido&#34;&gt;Modelos que tienen más sentido
&lt;/h2&gt;&lt;h2 id=&#34;1-rtx-5060-ti-16gb&#34;&gt;1. &lt;code&gt;RTX 5060 Ti 16GB&lt;/code&gt;
&lt;/h2&gt;&lt;p&gt;Si ya está comprando en el rango medio, esta tarjeta suele ser la opción más segura en comparación con la versión de &amp;ldquo;8 GB&amp;rdquo;.&lt;/p&gt;
&lt;p&gt;Las razones son simples:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Más espacio libre dentro de la misma familia de productos&lt;/li&gt;
&lt;li&gt;Es menos probable que VRAM lo bloquee en los próximos años.&lt;/li&gt;
&lt;li&gt;Es más fácil vivir con él si combinas juegos y productividad&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Puede que no sea la tarjeta más explosiva por su precio, pero al menos es el tipo de tarjeta de la que es menos probable que te arrepientas inmediatamente.&lt;/p&gt;
&lt;h2 id=&#34;2-rtx-5070-ti&#34;&gt;2. &lt;code&gt;RTX 5070 Ti&lt;/code&gt;
&lt;/h2&gt;&lt;p&gt;Si su presupuesto puede estirarse, esta suele ser una respuesta más completa que el &lt;code&gt;RTX 5070&lt;/code&gt;.&lt;/p&gt;
&lt;p&gt;Su valor no es que domine todos los escenarios. Su valor es que se siente más como una tarjeta que puede equilibrar los juegos, la resolución y el uso a largo plazo, todo al mismo tiempo.&lt;/p&gt;
&lt;p&gt;Tiene sentido para las personas que:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Quiere configuraciones altas de &lt;code&gt;1440p&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;Quiere que el sistema dure años&lt;/li&gt;
&lt;li&gt;No quiero empezar a pensar en actualizaciones demasiado pronto.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Si ya está atrapado entre el &lt;code&gt;5070&lt;/code&gt; y el &lt;code&gt;5070 Ti&lt;/code&gt;, y la brecha no es absurdamente grande, ir directamente al &lt;code&gt;5070 Ti&lt;/code&gt; suele ser la decisión menos molesta.&lt;/p&gt;
&lt;h2 id=&#34;3-las-tarjetas-nuevas-con-un-precio-adecuado-suelen-ser-una-mejor-primera-opción-que-las-tarjetas-más-antiguas-de-alta-gama&#34;&gt;3. Las tarjetas nuevas con un precio adecuado suelen ser una mejor primera opción que las tarjetas más antiguas de alta gama
&lt;/h2&gt;&lt;p&gt;Si no eres un cazador veterano de GPU usadas, una regla simple y efectiva es la siguiente:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Priorizar las nuevas tarjetas minoristas normales&lt;/li&gt;
&lt;li&gt;Tenga cuidado con las tarjetas antiguas de alta gama que tienen orígenes complicados&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;En este punto, el enfoque más práctico suele ser:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Presupuesto de gama media: comience con &lt;code&gt;RTX 5060 Ti 16GB&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;Un nivel superior: céntrese en &lt;code&gt;RTX 5070 Ti&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;Considere &lt;code&gt;RTX 5070&lt;/code&gt; solo cuando el precio sea claramente favorable&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Este suele ser un mejor camino que apostar con cartas más antiguas que suenan más fuertes pero que vienen con más equipaje.&lt;/p&gt;
&lt;h2 id=&#34;si-solo-quieres-la-versión-corta&#34;&gt;Si solo quieres la versión corta
&lt;/h2&gt;&lt;p&gt;Puedes recordarlo así:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Realmente no recomendado: &lt;code&gt;RTX 5060 Ti 8GB&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;No recomendado a menos que tenga un buen precio: &lt;code&gt;RTX 5070&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;Tenga cuidado con: &lt;code&gt;RTX 3080 10GB&lt;/code&gt;, &lt;code&gt;RTX 3070 Ti&lt;/code&gt; y &lt;code&gt;RTX 3090&lt;/code&gt;/&lt;code&gt;RTX 3080 Ti&lt;/code&gt; de fuente poco clara&lt;/li&gt;
&lt;li&gt;Más que vale la pena considerar: &lt;code&gt;RTX 5060 Ti 16GB&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;Selección más fácil a largo plazo si el presupuesto lo permite: &lt;code&gt;RTX 5070 Ti&lt;/code&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;línea-final&#34;&gt;Línea final
&lt;/h2&gt;&lt;p&gt;A estas alturas del mercado el verdadero error suele ser no gastar un poco más. Se trata de &lt;strong&gt;comprar una tarjeta que parece aceptable en papel pero que siempre se siente un poco comprometida en el uso real&lt;/strong&gt;.&lt;/p&gt;
&lt;p&gt;Si desea minimizar el arrepentimiento, &lt;code&gt;RTX 5060 Ti 16GB&lt;/code&gt; y &lt;code&gt;RTX 5070 Ti&lt;/code&gt; son generalmente más seguras que muchas tarjetas que parecen &amp;ldquo;suficientemente buenas&amp;rdquo;, mientras que &lt;code&gt;RTX 5060 Ti 8GB&lt;/code&gt;, &lt;code&gt;RTX 5070&lt;/code&gt; de mal precio y tarjetas de gama alta más antiguas con un historial poco claro suelen ser las primeras en tachar.&lt;/p&gt;
</description>
        </item>
        <item>
        <title>Actualizaciones de hardware y GPU Ubuntu 26.04 LTS: CUDA, ROCm, DPC&#43;&#43; y más cambios de plataforma</title>
        <link>https://www.knightli.com/es/2026/04/26/ubuntu-26-04-lts-gpu-hardware-ai-updates/</link>
        <pubDate>Sun, 26 Apr 2026 19:35:57 +0800</pubDate>
        
        <guid>https://www.knightli.com/es/2026/04/26/ubuntu-26-04-lts-gpu-hardware-ai-updates/</guid>
        <description>&lt;p&gt;Si el artículo anterior funcionó como una descripción general centrada en el escritorio de &lt;code&gt;Ubuntu 26.04 LTS&lt;/code&gt;, es mejor leer este como su seguimiento del hardware y la computación. En este ciclo &lt;code&gt;26.04&lt;/code&gt;, Ubuntu impulsó una serie de cambios en IA, computación GPU y compatibilidad de plataforma en el archivo principal o alcance de soporte formal.&lt;/p&gt;
&lt;p&gt;La versión corta es esta: la parte más importante de esta ronda no son solo las actualizaciones de escritorio y kernel, sino que &lt;strong&gt;Ubuntu está incorporando pilas de computación de GPU Intel, NVIDIA y AMD a la distribución de una manera más sistemática&lt;/strong&gt;.&lt;/p&gt;
&lt;h2 id=&#34;1-intel-dpc-y-componentes-relacionados-ahora-están-en-ubuntu-archive&#34;&gt;1. Intel DPC++ y componentes relacionados ahora están en Ubuntu Archive
&lt;/h2&gt;&lt;p&gt;A partir de &lt;code&gt;26.04&lt;/code&gt;, el compilador de código abierto &lt;code&gt;oneAPI DPC++&lt;/code&gt; de Intel está disponible directamente desde Ubuntu Archive para crear código &lt;code&gt;SYCL&lt;/code&gt;. Su tiempo de ejecución también incluye adaptadores para GPU Intel.&lt;/p&gt;
&lt;p&gt;Ahora también están disponibles dos componentes relacionados en los repositorios de Ubuntu:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;oneDPL&lt;/code&gt;, la biblioteca DPC++, que proporciona API de desarrollador de mayor productividad&lt;/li&gt;
&lt;li&gt;&lt;code&gt;oneDNN&lt;/code&gt;, creado con &lt;code&gt;dpclang-6&lt;/code&gt;, que puede ejecutarse en GPU Intel&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Eso significa que si ya está trabajando con &lt;code&gt;SYCL&lt;/code&gt;, computación heterogénea o cargas de trabajo de IA en GPU Intel, Ubuntu ahora ofrece una ruta más directa en lugar de obligarlo a mantener una pila externa separada para todo.&lt;/p&gt;
&lt;p&gt;Ubuntu también señala un requisito práctico: los usuarios deben estar en el grupo &amp;ldquo;renderizar&amp;rdquo; para utilizar realmente estas capacidades relacionadas con la GPU Intel.&lt;/p&gt;
&lt;h2 id=&#34;2-el-kit-de-herramientas-nvidia-cuda-ahora-se-puede-instalar-directamente-con-apt&#34;&gt;2. El kit de herramientas NVIDIA CUDA ahora se puede instalar directamente con &lt;code&gt;apt&lt;/code&gt;
&lt;/h2&gt;&lt;p&gt;Para muchos desarrolladores y operadores, este puede ser uno de los cambios más útiles de inmediato en las notas.&lt;/p&gt;
&lt;p&gt;A partir de &lt;code&gt;26.04&lt;/code&gt;, el &lt;code&gt;kit de herramientas NVIDIA CUDA&lt;/code&gt; ahora se puede instalar directamente desde Ubuntu Archive:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;sudo apt install cuda-toolkit
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;El valor aquí es mayor que simplemente guardar algunos pasos de configuración.&lt;/p&gt;
&lt;p&gt;Para los desarrolladores que envían software en Ubuntu, este nuevo modelo significa que pueden simplemente declarar una dependencia del &amp;ldquo;tiempo de ejecución CUDA&amp;rdquo;, mientras que Ubuntu gestiona la instalación y la compatibilidad a nivel de distribución. Eso hace que CUDA se sienta más como una capacidad nativa del sistema en Ubuntu, en lugar de una capa de software adicional que siempre debe mantenerse por separado.&lt;/p&gt;
&lt;h2 id=&#34;3-amd-rocm-710-ya-está-en-universe&#34;&gt;3. AMD ROCm 7.1.0 ya está en Universe
&lt;/h2&gt;&lt;p&gt;Por el lado de AMD, Ubuntu Universe ahora incluye &lt;code&gt;ROCm 7.1.0&lt;/code&gt;.&lt;/p&gt;
&lt;p&gt;Estas bibliotecas proporcionan principalmente:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;infraestructura backend para entrenamiento e inferencia de IA en GPU AMD&lt;/li&gt;
&lt;li&gt;fundamentos de software para el aprendizaje automático y la informática de alto rendimiento&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Canonical también señala que los componentes relacionados con ROCm se prueban continuamente en su canal de CI/CD. Más allá de &amp;ldquo;autopkgtests&amp;rdquo;, eso incluye varias aplicaciones de espacio de usuario como:&lt;/p&gt;
&lt;p&gt;-&lt;code&gt;llama.cpp&lt;/code&gt;
-&lt;code&gt;pytorch&lt;/code&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;licuadora&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;&lt;code&gt;Servidor de limonada&lt;/code&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Ese detalle es importante, porque muestra que Ubuntu no se limita a colocar paquetes en el archivo. Está validando ROCm como una pila de software mantenible.&lt;/p&gt;
&lt;h2 id=&#34;4-la-historia-más-importante-es-que-los-tres-ecosistemas-de-gpu-están-aterrizando&#34;&gt;4. La historia más importante es que los tres ecosistemas de GPU están aterrizando
&lt;/h2&gt;&lt;p&gt;Es más fácil ver la dirección de &lt;code&gt;26.04&lt;/code&gt; cuando &lt;code&gt;DPC++&lt;/code&gt;, &lt;code&gt;CUDA&lt;/code&gt; y &lt;code&gt;ROCm&lt;/code&gt; se ven juntos:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Intel: incorporando componentes &lt;code&gt;SYCL&lt;/code&gt;/&lt;code&gt;oneAPI&lt;/code&gt; a repositorios oficiales&lt;/li&gt;
&lt;li&gt;NVIDIA: dando al &lt;code&gt;kit de herramientas CUDA&lt;/code&gt; una ruta de instalación administrada por distribución&lt;/li&gt;
&lt;li&gt;AMD: lanzando &lt;code&gt;ROCm 7.1.0&lt;/code&gt; en Universe con pruebas en curso&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Si trabaja con este tipo de cargas de trabajo en Ubuntu, esta versión probablemente le resultará más relevante:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;inferencia local LLM&lt;/li&gt;
&lt;li&gt;Entrenamiento o ajuste acelerado por GPU&lt;/li&gt;
&lt;li&gt;Blender, informática científica y HPC.&lt;/li&gt;
&lt;li&gt;entornos de desarrollo que necesitan moverse a través de diferentes plataformas GPU&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;En otras palabras, Ubuntu ya no es sólo &amp;ldquo;un sistema donde puedes instalar un controlador de GPU&amp;rdquo;. Está comenzando a tener una &lt;strong&gt;pila de software de espacio de usuario más completa para computación con IA y GPU&lt;/strong&gt;.&lt;/p&gt;
&lt;h2 id=&#34;5-nvidia-dynamic-boost-está-habilitado-de-forma-predeterminada&#34;&gt;5. NVIDIA Dynamic Boost está habilitado de forma predeterminada
&lt;/h2&gt;&lt;p&gt;Desde el &amp;ldquo;25.04&amp;rdquo;, &amp;ldquo;Dynamic Boost&amp;rdquo; se ha habilitado de forma predeterminada en las computadoras portátiles NVIDIA compatibles.&lt;/p&gt;
&lt;p&gt;La idea es sencilla: dependiendo de la carga del sistema, la energía se puede cambiar dinámicamente entre la CPU y la GPU. En escenarios de juegos, eso generalmente significa darle más potencia a la GPU cuando sea necesario para extraer más rendimiento.&lt;/p&gt;
&lt;p&gt;Sólo se aplica bajo dos condiciones:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;la computadora portátil está conectada a la alimentación de CA&lt;/li&gt;
&lt;li&gt;la carga de la GPU es lo suficientemente alta&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;No se activa mientras el sistema está funcionando con batería.&lt;/p&gt;
&lt;h2 id=&#34;6-la-compatibilidad-con-las-nuevas-gpu-intel-integradas-y-discretas-sigue-avanzando&#34;&gt;6. La compatibilidad con las nuevas GPU Intel integradas y discretas sigue avanzando
&lt;/h2&gt;&lt;p&gt;Ubuntu también continúa ampliando el soporte para nuevas GPU Intel, que incluyen:&lt;/p&gt;
&lt;p&gt;Integrado:&lt;/p&gt;
&lt;p&gt;-&lt;code&gt;Intel Core Ultra Xe2&lt;/code&gt;
-&lt;code&gt;Intel Core Ultra Xe3&lt;/code&gt;&lt;/p&gt;
&lt;p&gt;Discreto:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;Intel Arco 5 B570&lt;/code&gt;
-&lt;code&gt;Intel Arc 5 B580&lt;/code&gt;
-&lt;code&gt;Intel Arc Pro B50&lt;/code&gt;
-&lt;code&gt;Intel Arc Pro B60&lt;/code&gt;
-&lt;code&gt;Intel Arc Pro B65&lt;/code&gt;
-&lt;code&gt;Intel Arc Pro B70&lt;/code&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Ubuntu también destaca varias características que ya están disponibles en estos dispositivos:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;rendimiento mejorado del trazado de rayos de GPU y CPU a través de Intel Embree, beneficiando aplicaciones como &lt;code&gt;Blender 4.2+&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;codificación de vídeo por hardware para &lt;code&gt;AVC&lt;/code&gt;, &lt;code&gt;JPEG&lt;/code&gt;, &lt;code&gt;HEVC&lt;/code&gt; y &lt;code&gt;AV1&lt;/code&gt; en dispositivos &amp;ldquo;Battlemage&amp;rdquo;&lt;/li&gt;
&lt;li&gt;una nueva optimización &lt;code&gt;CCS&lt;/code&gt; en Intel Compute Runtime&lt;/li&gt;
&lt;li&gt;soporte de depuración habilitado para GPU Intel Xe&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Si está viendo las versiones de seguimiento, &amp;ldquo;25.10&amp;rdquo; también continúa incorporando más capacidades, que incluyen:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;soporte inicial para la plataforma de cliente de próxima generación de Intel con nombre en código &lt;code&gt;Panther Lake&lt;/code&gt; hasta &lt;code&gt;Linux kernel 6.17&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;IOMMU mejorado, subsistema PCIe y compatibilidad con múltiples GPU&lt;/li&gt;
&lt;li&gt;&lt;code&gt;Mesa 25.2.3&lt;/code&gt; habilitando &lt;code&gt;VK_KHR_shader_bfloat16&lt;/code&gt; para Battlemage y Panther Lake&lt;/li&gt;
&lt;li&gt;&lt;code&gt;intel-media-driver 25.3.0&lt;/code&gt; agrega soporte de decodificación Panther Lake y codificación &lt;code&gt;VP9&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;&lt;code&gt;intel-compute-runtime 25.31&lt;/code&gt; ajusta el comportamiento de asignación de eventos de memoria del dispositivo local y del grupo &lt;code&gt;USM&lt;/code&gt; de nivel cero&lt;/li&gt;
&lt;li&gt;&lt;code&gt;level-zero 1.24&lt;/code&gt; y &lt;code&gt;level-zero-raytracing 1.1.0&lt;/code&gt; brindan compatibilidad con especificaciones más amplias y extensión RTAS&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;7-suspender-y-reanudar-también-es-más-estable-en-las-computadoras-de-escritorio-nvidia&#34;&gt;7. Suspender y reanudar también es más estable en las computadoras de escritorio Nvidia
&lt;/h2&gt;&lt;p&gt;A partir de &lt;code&gt;25.10&lt;/code&gt;, Ubuntu habilita el soporte de suspensión y reanudación en el controlador propietario &lt;code&gt;Nvidia&lt;/code&gt; para reducir la corrupción y la congelación al activar un sistema de escritorio.&lt;/p&gt;
&lt;p&gt;Este no es el tipo de cambio más visible, pero es muy importante en el uso diario, especialmente en computadoras de escritorio que permanecen encendidas durante períodos prolongados y que se suspenden y reanudan con frecuencia.&lt;/p&gt;
&lt;h2 id=&#34;8-arm-raspberry-pi-risc-v-e-ibm-z-también-reciben-cambios-más-difíciles-a-nivel-de-plataforma&#34;&gt;8. ARM, Raspberry Pi, RISC-V e IBM Z también reciben cambios más difíciles a nivel de plataforma
&lt;/h2&gt;&lt;p&gt;Más allá de la pila de software de GPU, las notas de la versión también incluyen varios cambios a nivel de plataforma que vale la pena mencionar por separado.&lt;/p&gt;
&lt;h3 id=&#34;plataformas-de-escritorio-arm64&#34;&gt;Plataformas de escritorio ARM64
&lt;/h3&gt;&lt;p&gt;A partir de &lt;code&gt;25.10&lt;/code&gt;, el kernel &lt;code&gt;linux-generic&lt;/code&gt; &lt;code&gt;ARM64&lt;/code&gt; proporciona una compatibilidad de escritorio más amplia para las plataformas de escritorio ARM64 que arrancan a través de &lt;code&gt;UEFI&lt;/code&gt;.&lt;/p&gt;
&lt;h3 id=&#34;un-nuevo-diseño-de-arranque-de-raspberry-pi&#34;&gt;Un nuevo diseño de arranque de Raspberry Pi
&lt;/h3&gt;&lt;p&gt;Un cambio introducido en &lt;code&gt;25.10&lt;/code&gt; y refinado en &lt;code&gt;26.04&lt;/code&gt; es un nuevo diseño de partición de arranque para sistemas Raspberry Pi.
Su objetivo es mejorar la confiabilidad del arranque: los recursos de arranque recién escritos primero se &amp;ldquo;prueban&amp;rdquo; antes de confirmarlos como el nuevo conjunto &amp;ldquo;bueno conocido&amp;rdquo;.&lt;/p&gt;
&lt;p&gt;Los requisitos de fecha del firmware son la parte que la mayoría de los usuarios querrán recordar:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;Pi 3 / 3+ / CM3+ / Zero 2W&lt;/code&gt;: no se requiere ninguna acción adicional, el firmware de arranque está en la propia imagen&lt;/li&gt;
&lt;li&gt;&lt;code&gt;Pi 4/400/CM4&lt;/code&gt;: el firmware de arranque no debe tener una fecha anterior a &lt;code&gt;2022-11-25&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;&lt;code&gt;Pi 5/500/CM5&lt;/code&gt;: el firmware de arranque no debe tener una fecha anterior a &lt;code&gt;2025-02-11&lt;/code&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Puedes comprobarlo con:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;sudo rpi-eeprom-update
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Si el firmware es demasiado antiguo y está utilizando &amp;ldquo;Ubuntu 24.04 LTS&amp;rdquo; o más reciente, puede actualizarlo de esta manera:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;sudo rpi-eeprom-update -a
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;sudo reboot
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;h3 id=&#34;las-imágenes-de-escritorio-de-raspberry-pi-ahora-usan-escritorio-mínimo&#34;&gt;Las imágenes de escritorio de Raspberry Pi ahora usan escritorio mínimo
&lt;/h3&gt;&lt;p&gt;Desde &amp;ldquo;25.10&amp;rdquo;, las imágenes de escritorio de Ubuntu para Raspberry Pi se basan en &amp;ldquo;desktop-minimal&amp;rdquo; en lugar de en la semilla de &amp;ldquo;escritorio&amp;rdquo; completa.&lt;/p&gt;
&lt;p&gt;Ubuntu ofrece aquí un beneficio muy concreto: el conjunto de aplicaciones predeterminado es más pequeño, lo que ahorra alrededor de &amp;ldquo;777 MB&amp;rdquo; en la imagen sin comprimir y en los sistemas instalados.&lt;/p&gt;
&lt;p&gt;Si desea eliminar esa aplicación predeterminada configurada de forma masiva después de la actualización, puede usar:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;sudo apt purge ubuntu-desktop --autoremove
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Si desea conservar algunas de esas aplicaciones, primero márquelas como instaladas manualmente con &amp;ldquo;apt&amp;rdquo;.&lt;/p&gt;
&lt;h3 id=&#34;el-intercambio-en-raspberry-pi-ahora-lo-maneja-cloud-init&#34;&gt;El intercambio en Raspberry Pi ahora lo maneja cloud-init
&lt;/h3&gt;&lt;p&gt;Desde &amp;ldquo;25.10&amp;rdquo;, la creación de archivos de intercambio en imágenes de escritorio de Raspberry Pi se maneja mediante &amp;ldquo;cloud-init&amp;rdquo;.&lt;br&gt;
Si desea personalizar el tamaño del intercambio antes del primer inicio, puede editar los &amp;ldquo;datos de usuario&amp;rdquo; directamente en la partición de inicio.&lt;/p&gt;
&lt;h3 id=&#34;los-requisitos-de-risc-v-han-aumentado&#34;&gt;Los requisitos de RISC-V han aumentado
&lt;/h3&gt;&lt;p&gt;A partir de &lt;code&gt;25.10&lt;/code&gt;, la compilación &lt;code&gt;RISC-V&lt;/code&gt; de &lt;code&gt;Ubuntu 26.04 LTS&lt;/code&gt; requiere hardware que implemente el &lt;code&gt;perfil ISA RVA23S64&lt;/code&gt;.&lt;/p&gt;
&lt;p&gt;Los sistemas que no cumplan con ese requisito ya no podrán ejecutar &amp;ldquo;Ubuntu 26.04 LTS&amp;rdquo;. Si todavía tiene placas basadas en núcleos de procesador &amp;ldquo;RVA20&amp;rdquo; anteriores, debe permanecer en la línea de soporte proporcionada por &amp;ldquo;Ubuntu 24.04 LTS&amp;rdquo;.&lt;/p&gt;
&lt;p&gt;Según Ubuntu, a partir de &amp;ldquo;abril de 2026&amp;rdquo;, todavía no hay hardware &amp;ldquo;RVA23S64&amp;rdquo; real disponible. Por lo tanto, la única plataforma actualmente compatible es efectivamente un entorno virtualizado &amp;ldquo;QEMU&amp;rdquo; configurado con &amp;ldquo;-cpu rva23s64&amp;rdquo;.&lt;/p&gt;
&lt;h3 id=&#34;ibm-z-ahora-requiere-z15-como-mínimo&#34;&gt;IBM Z ahora requiere z15 como mínimo
&lt;/h3&gt;&lt;p&gt;A partir de &lt;code&gt;26.04&lt;/code&gt;, el requisito mínimo para la arquitectura &lt;code&gt;s390x&lt;/code&gt; pasó a &lt;code&gt;z15&lt;/code&gt;.&lt;/p&gt;
&lt;p&gt;Eso significa:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;z14&lt;/code&gt; / &lt;code&gt;LinuxONE II&lt;/code&gt; y sistemas más antiguos ya no pueden instalar &lt;code&gt;Ubuntu 26.04 LTS&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;&lt;code&gt;z15&lt;/code&gt; / &lt;code&gt;LinuxONE III&lt;/code&gt; y los sistemas más nuevos deberían tener un mejor rendimiento&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;9-quién-debería-leer-esto-primero&#34;&gt;9. ¿Quién debería leer esto primero?
&lt;/h2&gt;&lt;p&gt;Este artículo es más útil que la descripción general del escritorio si se encuentra en alguno de estos casos:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;usas Ubuntu para &lt;code&gt;CUDA&lt;/code&gt;, &lt;code&gt;ROCm&lt;/code&gt;, &lt;code&gt;SYCL&lt;/code&gt; o inferencia de IA local&lt;/li&gt;
&lt;li&gt;realiza trabajos de desarrollo o computación en GPU Intel, NVIDIA o AMD&lt;/li&gt;
&lt;li&gt;mantiene Raspberry Pi, ARM64, RISC-V, IBM Z u otras plataformas x86 no estándar&lt;/li&gt;
&lt;li&gt;eres especialmente sensible a la disponibilidad del repositorio, el comportamiento del controlador, los tiempos de ejecución y los requisitos de la plataforma después de una actualización&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;10-comida-para-llevar-de-una-línea&#34;&gt;10. Comida para llevar de una línea
&lt;/h2&gt;&lt;p&gt;El punto clave de &amp;ldquo;Ubuntu 26.04 LTS&amp;rdquo; en el lado del hardware y la pila de IA no es que un proveedor de GPU haya obtenido una actualización destacada. Es que &lt;strong&gt;DPC++ de Intel, CUDA de NVIDIA y ROCm de AMD están ingresando al ecosistema Ubuntu de una manera más oficial, en repositorio y mantenible&lt;/strong&gt;.
Si solía pensar en Ubuntu como &amp;ldquo;primero el sistema, luego yo mismo ensamblo el entorno de GPU&amp;rdquo;, &lt;code&gt;26.04&lt;/code&gt; comienza a parecerse más a una distribución que está dispuesta a transportar activamente IA y cargas de trabajo informáticas heterogéneas.&lt;/p&gt;
</description>
        </item>
        <item>
        <title>12V-2x6 frente a 12VHPWR: notas sobre las diferencias en el conector de alimentación de 16 pines de la GPU</title>
        <link>https://www.knightli.com/es/2026/04/19/12v-2x6-vs-12vhpwr-gpu-power-connector-notes/</link>
        <pubDate>Sun, 19 Apr 2026 23:21:17 +0800</pubDate>
        
        <guid>https://www.knightli.com/es/2026/04/19/12v-2x6-vs-12vhpwr-gpu-power-connector-notes/</guid>
        <description>&lt;p&gt;&lt;img src=&#34;https://www.knightli.com/2026/04/19/12v-2x6-vs-12vhpwr-gpu-power-connector-notes/4.png&#34;
	width=&#34;1516&#34;
	height=&#34;774&#34;
	srcset=&#34;https://www.knightli.com/2026/04/19/12v-2x6-vs-12vhpwr-gpu-power-connector-notes/4_hu_defcdc0fe696070d.png 480w, https://www.knightli.com/2026/04/19/12v-2x6-vs-12vhpwr-gpu-power-connector-notes/4_hu_d75571d9af707f1a.png 1024w&#34;
	loading=&#34;lazy&#34;
	
		alt=&#34;Comparación&#34;
	
	
		class=&#34;gallery-image&#34; 
		data-flex-grow=&#34;195&#34;
		data-flex-basis=&#34;470px&#34;
	
&gt;&lt;/p&gt;
&lt;p&gt;Entre las GPU de gama alta recientes, el conector de alimentación del que se habla con más frecuencia es probablemente el &amp;ldquo;12VHPWR&amp;rdquo; y el más nuevo &amp;ldquo;12V-2x6&amp;rdquo;. Ambos parecen conectores de 16 pines, con un diseño &amp;ldquo;12 + 4&amp;rdquo;, pero no son exactamente la misma interfaz.&lt;/p&gt;
&lt;p&gt;En términos simples, &amp;ldquo;12V-2x6&amp;rdquo; puede entenderse como una revisión del diseño anterior &amp;ldquo;12VHPWR&amp;rdquo; bajo &amp;ldquo;ATX 3.1&amp;rdquo; y &amp;ldquo;PCIe CEM 5.1&amp;rdquo;. Mantiene la capacidad de salida de alta potencia, pero utiliza un diseño más conservador para la detección de inserción y la estructura del terminal. El objetivo es reducir el riesgo de que el conector siga soportando carga cuando no está completamente asentado.&lt;/p&gt;
&lt;h2 id=&#34;01-las-diferencias-de-cables-son-pequeñas&#34;&gt;01 Las diferencias de cables son pequeñas
&lt;/h2&gt;&lt;p&gt;La primera pregunta que preocupa a mucha gente es si los cables modulares &amp;ldquo;12V-2x6&amp;rdquo; y &amp;ldquo;12VHPWR&amp;rdquo; se pueden utilizar indistintamente.&lt;/p&gt;
&lt;p&gt;Si nos fijamos únicamente en el cable en sí, la diferencia no suele ser grande. El verdadero cambio está principalmente en el conector del lado de la placa, como el zócalo de la GPU o el zócalo de la placa posterior de la fuente de alimentación modular. Tanto los cables modulares &amp;ldquo;12V-2x6&amp;rdquo; más nuevos como los cables modulares &amp;ldquo;12VHPWR&amp;rdquo; más antiguos todavía están destinados a la entrega de energía de GPU de 16 pines.&lt;/p&gt;
&lt;p&gt;Por lo tanto, la compatibilidad no debe juzgarse únicamente por la longitud, el calibre o la apariencia del cable. Las especificaciones del socket del lado de la GPU y de la PSU, la calidad del terminal y la declaración de compatibilidad oficial del proveedor de la fuente de alimentación son más importantes.&lt;/p&gt;
&lt;h2 id=&#34;02-cambios-mecánicos-clave&#34;&gt;02 Cambios mecánicos clave
&lt;/h2&gt;&lt;p&gt;&lt;img src=&#34;https://www.knightli.com/2026/04/19/12v-2x6-vs-12vhpwr-gpu-power-connector-notes/1.png&#34;
	width=&#34;1469&#34;
	height=&#34;505&#34;
	srcset=&#34;https://www.knightli.com/2026/04/19/12v-2x6-vs-12vhpwr-gpu-power-connector-notes/1_hu_f49f1d41f41658ca.png 480w, https://www.knightli.com/2026/04/19/12v-2x6-vs-12vhpwr-gpu-power-connector-notes/1_hu_9451e0053960c4aa.png 1024w&#34;
	loading=&#34;lazy&#34;
	
		alt=&#34;Comparación de conectores&#34;
	
	
		class=&#34;gallery-image&#34; 
		data-flex-grow=&#34;290&#34;
		data-flex-basis=&#34;698px&#34;
	
&gt;&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://www.knightli.com/2026/04/19/12v-2x6-vs-12vhpwr-gpu-power-connector-notes/2.png&#34;
	width=&#34;1390&#34;
	height=&#34;743&#34;
	srcset=&#34;https://www.knightli.com/2026/04/19/12v-2x6-vs-12vhpwr-gpu-power-connector-notes/2_hu_b338f61621a3f769.png 480w, https://www.knightli.com/2026/04/19/12v-2x6-vs-12vhpwr-gpu-power-connector-notes/2_hu_dee9d88d14eab23d.png 1024w&#34;
	loading=&#34;lazy&#34;
	
		alt=&#34;Comparación de conectores&#34;
	
	
		class=&#34;gallery-image&#34; 
		data-flex-grow=&#34;187&#34;
		data-flex-basis=&#34;448px&#34;
	
&gt;&lt;/p&gt;
&lt;p&gt;El objetivo de &lt;code&gt;12V-2x6&lt;/code&gt; no es cambiar completamente la forma exterior del conector, sino ajustar la estructura de los pines.&lt;/p&gt;
&lt;p&gt;Sus 12 pines de alimentación principales son más largos y hacen contacto antes, mientras que los 4 pines de señal SENSE son más cortos y hacen contacto más tarde. La lógica es sencilla: sólo cuando el conector se inserta lo suficientemente profundo los pines SENSE deben conducir correctamente, permitiendo a la GPU identificar la capacidad de energía deseada.&lt;/p&gt;
&lt;p&gt;Este cambio apunta a un problema típico expuesto por los primeros conectores &amp;ldquo;12VHPWR&amp;rdquo;: el enchufe puede parecer insertado, pero en realidad puede no estar completamente asentado. Bajo cargas elevadas, un contacto insuficiente puede generar calor y, en casos graves, puede quemar el enchufe o el enchufe.&lt;/p&gt;
&lt;h2 id=&#34;03-lógica-sentida-más-conservadora&#34;&gt;03 Lógica SENTIDA más conservadora
&lt;/h2&gt;&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;SENTIDO0&lt;/th&gt;
          &lt;th&gt;SENTIDO1&lt;/th&gt;
          &lt;th style=&#34;text-align: right&#34;&gt;Encendido inicial (encendido)&lt;/th&gt;
          &lt;th style=&#34;text-align: right&#34;&gt;Potencia máxima sostenida&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;Terreno&lt;/td&gt;
          &lt;td&gt;Terreno&lt;/td&gt;
          &lt;td style=&#34;text-align: right&#34;&gt;375 W&lt;/td&gt;
          &lt;td style=&#34;text-align: right&#34;&gt;600 vatios&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;Abrir&lt;/td&gt;
          &lt;td&gt;Terreno&lt;/td&gt;
          &lt;td style=&#34;text-align: right&#34;&gt;225 W&lt;/td&gt;
          &lt;td style=&#34;text-align: right&#34;&gt;450 vatios&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;Terreno&lt;/td&gt;
          &lt;td&gt;Abrir&lt;/td&gt;
          &lt;td style=&#34;text-align: right&#34;&gt;150W&lt;/td&gt;
          &lt;td style=&#34;text-align: right&#34;&gt;300W&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;Corto&lt;/td&gt;
          &lt;td&gt;Corto&lt;/td&gt;
          &lt;td style=&#34;text-align: right&#34;&gt;100 vatios&lt;/td&gt;
          &lt;td style=&#34;text-align: right&#34;&gt;150W&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;Abrir&lt;/td&gt;
          &lt;td&gt;Abrir&lt;/td&gt;
          &lt;td style=&#34;text-align: right&#34;&gt;0W&lt;/td&gt;
          &lt;td style=&#34;text-align: right&#34;&gt;0W&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;La mejora de seguridad en &lt;code&gt;12V-2x6&lt;/code&gt; se centra en la lógica SENSE.&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://www.knightli.com/2026/04/19/12v-2x6-vs-12vhpwr-gpu-power-connector-notes/3.png&#34;
	width=&#34;1413&#34;
	height=&#34;594&#34;
	srcset=&#34;https://www.knightli.com/2026/04/19/12v-2x6-vs-12vhpwr-gpu-power-connector-notes/3_hu_da90f28c8ff5ee55.png 480w, https://www.knightli.com/2026/04/19/12v-2x6-vs-12vhpwr-gpu-power-connector-notes/3_hu_d32cc33cf944e495.png 1024w&#34;
	loading=&#34;lazy&#34;
	
		alt=&#34;Se alimenta solo cuando está completamente insertado&#34;
	
	
		class=&#34;gallery-image&#34; 
		data-flex-grow=&#34;237&#34;
		data-flex-basis=&#34;570px&#34;
	
&gt;&lt;/p&gt;
&lt;p&gt;En la definición más reciente, si &amp;ldquo;SENSE0&amp;rdquo; y &amp;ldquo;SENSE1&amp;rdquo; están en el estado flotante &amp;ldquo;Abierto&amp;rdquo;, la GPU no se encenderá normalmente o no entrará en el estado de entrada de alta potencia correspondiente. En otras palabras, cuando el conector no está colocado correctamente, el sistema es más propenso a impedir el funcionamiento en lugar de dejar que la GPU siga consumiendo energía.&lt;/p&gt;
&lt;p&gt;Esto es más conservador que los primeros &amp;ldquo;12VHPWR&amp;rdquo;. En diseños más antiguos, incluso si el estado SENSE no fuera ideal, algunos casos aún podrían permitir un cierto nivel de entrada de energía. Para las GPU de alta potencia, esa tolerancia puede convertirse en un riesgo.&lt;/p&gt;
&lt;p&gt;Acortar los pines SENSE es esencialmente una forma de hacer que &amp;ldquo;completamente insertados&amp;rdquo; sea un requisito previo más estricto.&lt;/p&gt;
&lt;h2 id=&#34;04-qué-significa-h&#34;&gt;04 Qué significa H++
&lt;/h2&gt;&lt;p&gt;Los conectores &amp;ldquo;12V-2x6&amp;rdquo; más nuevos suelen llevar una marca &amp;ldquo;H++&amp;rdquo;. Indica que los terminales del conector admiten una capacidad de corriente &lt;code&gt;9.2A&lt;/code&gt; o superior, lo que los distingue de los conectores &lt;code&gt;12VHPWR&lt;/code&gt; anteriores marcados como &lt;code&gt;H+&lt;/code&gt;.&lt;/p&gt;
&lt;p&gt;Vale la pena señalar que &amp;ldquo;H++&amp;rdquo; no significa que el límite de potencia del conector supere los 600 W. Ya sea nuevo o antiguo, el límite superior común para este esquema de energía de GPU de 16 pines sigue siendo &amp;ldquo;600W&amp;rdquo;. &lt;code&gt;H++&lt;/code&gt; se entiende mejor como especificación de terminal e identificación de versión de conector, no simplemente como &amp;ldquo;mayor potencia&amp;rdquo;.&lt;/p&gt;
&lt;h2 id=&#34;05-qué-significa-para-la-construcción-de-pc&#34;&gt;05 Qué significa para la construcción de PC
&lt;/h2&gt;&lt;p&gt;Para la construcción diaria de PC, el mayor valor de &amp;ldquo;12V-2x6&amp;rdquo; es reducir el riesgo relacionado con la inserción, pero no es un escudo mágico.&lt;/p&gt;
&lt;p&gt;Al utilizar este tipo de conector, vale la pena prestar atención a algunas cosas:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Insertar completamente el enchufe; No confíe sólo en si &amp;ldquo;parece insertado&amp;rdquo;.&lt;/li&gt;
&lt;li&gt;Evite doblar demasiado el cable justo al lado del conector de la GPU.&lt;/li&gt;
&lt;li&gt;No deje que el panel lateral ejerza presión sobre el cable.&lt;/li&gt;
&lt;li&gt;Prefiera cables originales, personalizados o adaptadores explícitamente admitidos por el proveedor de PSU o GPU.&lt;/li&gt;
&lt;li&gt;Evite adaptadores baratos de origen desconocido en GPU de alta potencia.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Si la carcasa está apretada, un cable en forma de L de 90 grados o un cable personalizado certificado por el proveedor pueden reducir la presión de flexión. Aún así, la calidad del terminal, el calibre del cable y la certificación del proveedor son más importantes que la apariencia.&lt;/p&gt;
&lt;h2 id=&#34;06-resumen-rápido&#34;&gt;06 Resumen rápido
&lt;/h2&gt;&lt;p&gt;&lt;code&gt;12V-2x6&lt;/code&gt; no es un conector que sea &amp;ldquo;básicamente igual que 12VHPWR porque tiene el mismo aspecto&amp;rdquo;. Sus cambios reales están dentro de la estructura del conector y la lógica de detección.&lt;/p&gt;
&lt;p&gt;Puedes pensarlo de esta manera:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;La forma del cable es similar, pero el conector del lado de la placa y el diseño del terminal son más importantes.&lt;/li&gt;
&lt;li&gt;Los pines de alimentación principales son más largos, mientras que los pines SENSE son más cortos.&lt;/li&gt;
&lt;li&gt;Cuando el conector no está completamente asentado, es más probable que el nuevo diseño impida que la GPU entre en estado de funcionamiento.&lt;/li&gt;
&lt;li&gt;La marca &lt;code&gt;H++&lt;/code&gt; identifica terminales con mayor capacidad de corriente.&lt;/li&gt;
&lt;li&gt;El límite de potencia común de la GPU sigue siendo &amp;ldquo;600W&amp;rdquo;.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Si está construyendo un sistema con una GPU de alta potencia, &amp;ldquo;12V-2x6&amp;rdquo; es de hecho más tranquilizador que el anterior &amp;ldquo;12VHPWR&amp;rdquo;. Pero la seguridad final aún depende de si el enchufe está completamente colocado, la calidad del cable, el diseño de la fuente de alimentación y el espacio para la gestión de cables de la caja. Un mejor estándar de conector no hace que una instalación descuidada sea segura.&lt;/p&gt;
</description>
        </item>
        <item>
        <title>Notas de Ollama Multi-GPU: agrupación de VRAM, selección de GPU y malentendidos comunes</title>
        <link>https://www.knightli.com/es/2026/04/19/ollama-multiple-gpu-notes/</link>
        <pubDate>Sun, 19 Apr 2026 00:18:00 +0800</pubDate>
        
        <guid>https://www.knightli.com/es/2026/04/19/ollama-multiple-gpu-notes/</guid>
        <description>&lt;p&gt;Al ejecutar la inferencia local con Ollama, surgen rápidamente algunas preguntas: si ya tengo una GPU y mi placa base todavía tiene ranuras PCIe vacías, ¿ayuda agregar más GPU? ¿Es necesario que las GPU sean idénticas? ¿Se puede combinar VRAM? ¿Acelerará la inferencia como un marco de entrenamiento de múltiples GPU?&lt;/p&gt;
&lt;p&gt;Esta nota resume cómo se comporta Ollama con múltiples GPU. La versión corta:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Ollama admite múltiples GPU.&lt;/li&gt;
&lt;li&gt;El valor principal de varias GPU generalmente es adaptar modelos más grandes a la VRAM disponible, sin obtener un escalado lineal de tokens.&lt;/li&gt;
&lt;li&gt;De forma predeterminada, si un modelo cabe completamente en una GPU, Ollama tiende a cargarlo en una sola GPU.&lt;/li&gt;
&lt;li&gt;Si un modelo no cabe en una GPU, Ollama puede distribuirlo entre las GPU disponibles.&lt;/li&gt;
&lt;li&gt;Ollama puede ver modelos de GPU mixtos, pero el rendimiento y la ubicación pueden no ser los ideales.&lt;/li&gt;
&lt;li&gt;SLI/NVLink no es necesario para el uso de múltiples GPU.&lt;/li&gt;
&lt;li&gt;Para limitar qué GPU puede usar Ollama, use &lt;code&gt;CUDA_VISIBLE_DEVICES&lt;/code&gt;, &lt;code&gt;ROCR_VISIBLE_DEVICES&lt;/code&gt; o &lt;code&gt;GGML_VK_VISIBLE_DEVICES&lt;/code&gt;.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;comportamiento-oficial-gpu-única-primero-gpu-múltiple-cuando-sea-necesario&#34;&gt;Comportamiento oficial: GPU única primero, GPU múltiple cuando sea necesario
&lt;/h2&gt;&lt;p&gt;Las preguntas frecuentes de Ollama describen directamente la lógica de carga de múltiples GPU: al cargar un nuevo modelo, Ollama estima la VRAM requerida y la compara con la memoria de GPU disponible actualmente. Si el modelo cabe completamente en una GPU, carga el modelo en esa GPU. Si no cabe en una sola GPU, el modelo se distribuye entre todas las GPU disponibles.&lt;/p&gt;
&lt;p&gt;La razón es el rendimiento. Mantener un modelo en una GPU generalmente reduce las transferencias de datos a través del bus PCIe durante la inferencia, por lo que suele ser más rápido.&lt;/p&gt;
&lt;p&gt;Así que no pienses en Ollama multi-GPU como si &amp;ldquo;más tarjetas significan automáticamente varias veces más rápido&amp;rdquo;. Un modelo más preciso es:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;El modelo pequeño cabe en una GPU: normalmente funciona con una GPU.&lt;/li&gt;
&lt;li&gt;El modelo grande no cabe en una GPU: se divide en varias GPU.&lt;/li&gt;
&lt;li&gt;Todavía no hay suficiente VRAM: parte del modelo vuelve a la memoria del sistema y la velocidad cae notablemente.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Utilice este comando para ver dónde está cargado el modelo:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;ollama ps
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;La columna &amp;ldquo;PROCESADOR&amp;rdquo; puede mostrar algo como:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;3
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-text&#34; data-lang=&#34;text&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;100% GPU
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;48%/52% CPU/GPU
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;100% CPU
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Si ve &amp;ldquo;48%/52% CPU/GPU&amp;rdquo;, parte del modelo ya está en la memoria del sistema. En ese caso, agregar más memoria GPU o usar una GPU con VRAM más grande suele ser más útil que seguir dependiendo de la CPU/RAM.&lt;/p&gt;
&lt;h2 id=&#34;multi-gpu-no-es-un-simple-apilamiento-informático&#34;&gt;Multi-GPU no es un simple apilamiento informático
&lt;/h2&gt;&lt;p&gt;La inferencia LLM local no es lo mismo que SLI en los juegos. Con Ollama en múltiples GPU, el patrón común es que se colocan diferentes capas o tensores en diferentes dispositivos. Esto puede hacer que un modelo más grande encaje en la VRAM disponible combinada, pero es posible que aún sea necesario que los datos se muevan entre dispositivos durante la inferencia.&lt;/p&gt;
&lt;p&gt;Por lo tanto, los beneficios de múltiples GPU generalmente se dividen en dos categorías:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Beneficio de VRAM: los modelos más grandes encajan más fácilmente, o menos parte del modelo recurre a CPU/RAM.&lt;/li&gt;
&lt;li&gt;Beneficio de rendimiento: generalmente es más obvio cuando un modelo no cabría en una GPU o se extendería en gran medida a la CPU.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Si un modelo 8B o 14B ya cabe por completo en un solo RTX 3090, forzarlo en dos GPU puede no ser más rápido. Incluso puede ralentizarse debido a la sobrecarga de transferencia entre GPU. La estrategia predeterminada de Ollama de &amp;ldquo;usar una GPU cuando sea necesario&amp;rdquo; evita ese costo innecesario de PCIe.&lt;/p&gt;
&lt;h2 id=&#34;no-se-requiere-sli-o-nvlink&#34;&gt;No se requiere SLI o NVLink
&lt;/h2&gt;&lt;p&gt;Ollama multi-GPU no depende de SLI. Se pueden programar varias GPU PCIe normales siempre que el controlador y Ollama puedan detectarlas.
NVLink o un ancho de banda PCIe superior puede ayudar en algunos escenarios entre GPU, pero no es un requisito. Muchos servidores y estaciones de trabajo GPU usados ​​pueden ejecutar varias GPU a través de PCIe normal.&lt;/p&gt;
&lt;p&gt;A lo que debes prestar atención es al ancho de banda PCIe. La diferencia entre &lt;code&gt;x1&lt;/code&gt;, &lt;code&gt;x4&lt;/code&gt;, &lt;code&gt;x8&lt;/code&gt; y &lt;code&gt;x16&lt;/code&gt; afecta la rapidez con la que se carga un modelo en VRAM. Si cambia con frecuencia de modelo grande, el ancho de banda PCIe se vuelve más importante. Después de cargar un modelo, PCIe generalmente importa menos durante la generación, pero la división entre GPU aún puede agregar gastos generales.&lt;/p&gt;
&lt;p&gt;Reglas más seguras:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Prefiere las bandas x16/x8 a las bandas x1 estilo minería.&lt;/li&gt;
&lt;li&gt;El ancho de banda PCIe es más importante cuando se cambian modelos grandes con frecuencia.&lt;/li&gt;
&lt;li&gt;Si un modelo permanece residente en VRAM durante mucho tiempo, el ancho de banda PCIe es menos visible.&lt;/li&gt;
&lt;li&gt;Para máquinas con múltiples GPU, verifique la topología PCIe de la placa base y los carriles conectados a la CPU.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;limite-las-gpu-nvidia-que-utiliza-ollama&#34;&gt;Limite las GPU NVIDIA que utiliza Ollama
&lt;/h2&gt;&lt;p&gt;En sistemas NVIDIA con múltiples GPU, use &lt;code&gt;CUDA_VISIBLE_DEVICES&lt;/code&gt; para controlar qué GPU puede ver Ollama.&lt;/p&gt;
&lt;p&gt;Ejecución temporal:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;nv&#34;&gt;CUDA_VISIBLE_DEVICES&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;=&lt;/span&gt;0,1 ollama serve
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Utilice sólo la segunda GPU:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;nv&#34;&gt;CUDA_VISIBLE_DEVICES&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;=&lt;/span&gt;&lt;span class=&#34;m&#34;&gt;1&lt;/span&gt; ollama serve
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Obligar a Ollama a no utilizar GPU NVIDIA:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;nv&#34;&gt;CUDA_VISIBLE_DEVICES&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;=&lt;/span&gt;-1 ollama serve
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Los documentos oficiales señalan que los ID numéricos pueden cambiar de orden, por lo que los UUID de GPU son más confiables. Primero verifique los UUID:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;nvidia-smi -L
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Salida de ejemplo:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-text&#34; data-lang=&#34;text&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;GPU 0: NVIDIA GeForce RTX 3090 (UUID: GPU-xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx)
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;GPU 1: NVIDIA GeForce RTX 3070 (UUID: GPU-yyyyyyyy-yyyy-yyyy-yyyy-yyyyyyyyyyyy)
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Luego especifique el UUID:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;nv&#34;&gt;CUDA_VISIBLE_DEVICES&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;=&lt;/span&gt;GPU-xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx ollama serve
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Si Ollama está instalado como un servicio systemd de Linux, coloque la variable en el entorno del servicio:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;sudo systemctl edit ollama.service
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Agregar:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-ini&#34; data-lang=&#34;ini&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;k&#34;&gt;[Service]&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;na&#34;&gt;Environment&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;=&lt;/span&gt;&lt;span class=&#34;s&#34;&gt;&amp;#34;CUDA_VISIBLE_DEVICES=0,1&amp;#34;&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Recargar y reiniciar:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;sudo systemctl daemon-reload
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;sudo systemctl restart ollama
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;h2 id=&#34;selección-de-dispositivos-amd-y-vulkan&#34;&gt;Selección de dispositivos AMD y Vulkan
&lt;/h2&gt;&lt;p&gt;Para AMD ROCm, use &lt;code&gt;ROCR_VISIBLE_DEVICES&lt;/code&gt; para controlar las GPU visibles:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;nv&#34;&gt;ROCR_VISIBLE_DEVICES&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;=&lt;/span&gt;0,1 ollama serve
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Para obligar a Ollama a no usar GPU ROCm, use una identificación no válida:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;nv&#34;&gt;ROCR_VISIBLE_DEVICES&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;=&lt;/span&gt;-1 ollama serve
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Los documentos de GPU de Ollama también mencionan el soporte experimental de Vulkan. Para GPU Vulkan, use &lt;code&gt;GGML_VK_VISIBLE_DEVICES&lt;/code&gt;:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;nv&#34;&gt;OLLAMA_VULKAN&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;=&lt;/span&gt;&lt;span class=&#34;m&#34;&gt;1&lt;/span&gt; &lt;span class=&#34;nv&#34;&gt;GGML_VK_VISIBLE_DEVICES&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;=&lt;/span&gt;&lt;span class=&#34;m&#34;&gt;0&lt;/span&gt; ollama serve
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Si los dispositivos Vulkan causan problemas, desactívelos:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;nv&#34;&gt;GGML_VK_VISIBLE_DEVICES&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;=&lt;/span&gt;-1 ollama serve
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Es más probable que las configuraciones de múltiples GPU de AMD tengan problemas de compatibilidad con el controlador, la versión ROCm y la versión GFX. Los documentos oficiales también mencionan los requisitos del controlador ROCm de Linux y las anulaciones de compatibilidad, como &lt;code&gt;HSA_OVERRIDE_GFX_VERSION&lt;/code&gt;. Si combina diferentes generaciones de GPU AMD, primero verifique que cada tarjeta funcione por sí sola antes de probar con varias GPU.&lt;/p&gt;
&lt;h2 id=&#34;exponer-varias-gpu-en-docker&#34;&gt;Exponer varias GPU en Docker
&lt;/h2&gt;&lt;p&gt;Si ejecuta Ollama en Docker, las configuraciones de NVIDIA generalmente requieren &lt;code&gt;nvidia-container-toolkit&lt;/code&gt; y luego &lt;code&gt;--gpus&lt;/code&gt; para exponer los dispositivos.&lt;/p&gt;
&lt;p&gt;Exponga todas las GPU:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;3
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;4
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;5
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;6
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;docker run -d &lt;span class=&#34;se&#34;&gt;\
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  --gpus&lt;span class=&#34;o&#34;&gt;=&lt;/span&gt;all &lt;span class=&#34;se&#34;&gt;\
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  -v ollama:/root/.ollama &lt;span class=&#34;se&#34;&gt;\
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  -p 11434:11434 &lt;span class=&#34;se&#34;&gt;\
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  --name ollama &lt;span class=&#34;se&#34;&gt;\
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  ollama/ollama
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Exponer GPU específicas:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;3
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;4
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;5
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;6
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;docker run -d &lt;span class=&#34;se&#34;&gt;\
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  --gpus &lt;span class=&#34;s1&#34;&gt;&amp;#39;&amp;#34;device=0,1&amp;#34;&amp;#39;&lt;/span&gt; &lt;span class=&#34;se&#34;&gt;\
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  -v ollama:/root/.ollama &lt;span class=&#34;se&#34;&gt;\
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  -p 11434:11434 &lt;span class=&#34;se&#34;&gt;\
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  --name ollama &lt;span class=&#34;se&#34;&gt;\
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  ollama/ollama
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;También puedes combinar esto con variables de entorno:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;3
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;4
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;5
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;6
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;7
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;docker run -d &lt;span class=&#34;se&#34;&gt;\
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  --gpus&lt;span class=&#34;o&#34;&gt;=&lt;/span&gt;all &lt;span class=&#34;se&#34;&gt;\
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  -e &lt;span class=&#34;nv&#34;&gt;CUDA_VISIBLE_DEVICES&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;=&lt;/span&gt;0,1 &lt;span class=&#34;se&#34;&gt;\
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  -v ollama:/root/.ollama &lt;span class=&#34;se&#34;&gt;\
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  -p 11434:11434 &lt;span class=&#34;se&#34;&gt;\
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  --name ollama &lt;span class=&#34;se&#34;&gt;\
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  ollama/ollama
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Si &lt;code&gt;nvidia-smi&lt;/code&gt; no puede ver las GPU dentro del contenedor, Ollama tampoco puede usarlas. Primero solucione los problemas de transferencia de GPU de Docker y luego Ollama.&lt;/p&gt;
&lt;h2 id=&#34;qué-es-ollama_sched_spread&#34;&gt;¿Qué es &lt;code&gt;OLLAMA_SCHED_SPREAD&lt;/code&gt;?
&lt;/h2&gt;&lt;p&gt;En algunas discusiones sobre configuración de múltiples GPU, es posible que vea &lt;code&gt;OLLAMA_SCHED_SPREAD=1&lt;/code&gt; o &lt;code&gt;OLLAMA_SCHED_SPREAD=true&lt;/code&gt;. Está relacionado con el programador de Ollama y se usa a menudo cuando las personas desean que los modelos o solicitudes se distribuyan más ampliamente entre las GPU.&lt;/p&gt;
&lt;p&gt;Ejemplo:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;nv&#34;&gt;OLLAMA_SCHED_SPREAD&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;=&lt;/span&gt;&lt;span class=&#34;m&#34;&gt;1&lt;/span&gt; ollama serve
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;O con systemd:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-ini&#34; data-lang=&#34;ini&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;k&#34;&gt;[Service]&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;na&#34;&gt;Environment&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;=&lt;/span&gt;&lt;span class=&#34;s&#34;&gt;&amp;#34;OLLAMA_SCHED_SPREAD=true&amp;#34;&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Pero no es un cambio mágico. Habilitarlo no implica un escalado lineal de tokens y aún puede ejecutarse en OOM cuando se cargan varios modelos, las estimaciones de VRAM son ajustadas, la longitud del contexto aumenta o la caché KV se expande. El comportamiento principal de las preguntas frecuentes todavía se aplica: si una GPU puede contener completamente el modelo, una GPU suele ser más eficiente; Si una GPU no puede contenerlo, entonces resulta útil la división entre varias GPU.
Trate &lt;code&gt;OLLAMA_SCHED_SPREAD&lt;/code&gt; como un experimento de programación avanzada, no como una configuración multi-GPU requerida. Primero, comprenda el comportamiento predeterminado y luego ajústelo según &lt;code&gt;ollama ps&lt;/code&gt;, registros y &lt;code&gt;nvidia-smi&lt;/code&gt;.&lt;/p&gt;
&lt;h2 id=&#34;cómo-comprobar-si-se-están-utilizando-varias-gpu&#34;&gt;Cómo comprobar si se están utilizando varias GPU
&lt;/h2&gt;&lt;p&gt;Comandos útiles:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;ollama ps
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;watch -n 0.5 nvidia-smi
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Ver los registros del servicio de Ollama:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;journalctl -u ollama -f
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Si usa Docker:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;docker logs -f ollama
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Esté atento a:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Si Ollama descubre GPU compatibles.&lt;/li&gt;
&lt;li&gt;Si el modelo muestra &amp;ldquo;100% GPU&amp;rdquo; o una división CPU/GPU.&lt;/li&gt;
&lt;li&gt;Si cada GPU tiene VRAM asignada.&lt;/li&gt;
&lt;li&gt;Si la VRAM crece en varias GPU durante la carga del modelo.&lt;/li&gt;
&lt;li&gt;Si los tokens de generación mejoran en comparación con el desbordamiento de CPU/RAM.&lt;/li&gt;
&lt;li&gt;Si la descarga de OOM o de modelos ocurre con frecuencia.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;La utilización de la GPU por sí sola puede resultar engañosa. La inferencia LLM no siempre mantiene las GPU completamente cargadas, especialmente con varias GPU, tamaños de lote bajos, contextos pequeños, CPU lentas o enlaces PCIe lentos.&lt;/p&gt;
&lt;h2 id=&#34;malentendidos-comunes&#34;&gt;Malentendidos comunes
&lt;/h2&gt;&lt;h3 id=&#34;malentendido-1-dos-gpu-de-12-gb-equivalen-a-una-gpu-de-24-gb&#34;&gt;Malentendido 1: Dos GPU de 12 GB equivalen a una GPU de 24 GB
&lt;/h3&gt;&lt;p&gt;No exactamente. Varias GPU pueden colocar un modelo en varios dispositivos, pero el acceso entre dispositivos tiene una sobrecarga. Resuelve el problema de &amp;ldquo;no encaja&amp;rdquo;, pero no es equivalente a la velocidad y estabilidad de una GPU de gran VRAM.&lt;/p&gt;
&lt;h3 id=&#34;malentendido-2-no-se-pueden-mezclar-diferentes-modelos-de-gpu&#34;&gt;Malentendido 2: No se pueden mezclar diferentes modelos de GPU
&lt;/h3&gt;&lt;p&gt;No necesariamente. Si el controlador, la capacidad informática y las bibliotecas de tiempo de ejecución son compatibles con las tarjetas, Ollama puede ver varias GPU. Pero las configuraciones mixtas suelen estar limitadas por una tarjeta más lenta, una VRAM más pequeña y una topología PCIe. La configuración más predecible sigue siendo el mismo modelo, el mismo tamaño de VRAM y controladores de la misma generación con buen soporte.&lt;/p&gt;
&lt;h3 id=&#34;malentendido-3-la-gpu-múltiple-siempre-es-más-rápida-que-la-gpu-única&#34;&gt;Malentendido 3: La GPU múltiple siempre es más rápida que la GPU única
&lt;/h3&gt;&lt;p&gt;No siempre. Si el modelo se adapta completamente a una GPU rápida, una GPU única puede ser más rápida. La GPU múltiple es útil principalmente para modelos grandes, contextos prolongados o VRAM de GPU única insuficiente.&lt;/p&gt;
&lt;h3 id=&#34;malentendido-4-se-requiere-nvlink--sli&#34;&gt;Malentendido 4: Se requiere NVLink / SLI
&lt;/h3&gt;&lt;p&gt;No. Ollama puede utilizar sistemas PCIe múltiples-GPU ordinarios. NVLink no es un requisito previo.&lt;/p&gt;
&lt;h3 id=&#34;malentendido-5-agregar-una-gpu-no-requiere-reiniciar-los-servicios&#34;&gt;Malentendido 5: Agregar una GPU no requiere reiniciar los servicios
&lt;/h3&gt;&lt;p&gt;No siempre es cierto. Es posible que sea necesario reiniciar los servicios systemd de Linux, las aplicaciones en segundo plano de Windows y los contenedores Docker antes de que redescubran dispositivos y variables de entorno.&lt;/p&gt;
&lt;h2 id=&#34;sugerencias-de-selección-de-gpu&#34;&gt;Sugerencias de selección de GPU
&lt;/h2&gt;&lt;p&gt;Para la inferencia local de Ollama, la prioridad aproximada es:&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;La VRAM de una sola GPU más grande suele ser más fácil de administrar.&lt;/li&gt;
&lt;li&gt;Las GPU idénticas son más fáciles de solucionar que las GPU mixtas.&lt;/li&gt;
&lt;li&gt;Los carriles PCIe más completos facilitan la carga de modelos grandes.&lt;/li&gt;
&lt;li&gt;Primero se debe verificar la capacidad de computación CUDA o la compatibilidad con ROCm en las tarjetas más antiguas.&lt;/li&gt;
&lt;li&gt;La alimentación, la refrigeración y el flujo de aire del chasis de varias GPU deben planificarse con antelación.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Para plataformas económicas de segunda mano:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Dual RTX 3090 sigue siendo una opción común de alta VRAM.&lt;/li&gt;
&lt;li&gt;Las tarjetas Tesla más antiguas, como la P40/M40, tienen una gran VRAM, pero la potencia, la refrigeración, la compatibilidad con el controlador y el rendimiento necesitan compensaciones.&lt;/li&gt;
&lt;li&gt;Las tarjetas como RTX 4070/4070 Ti tienen buena eficiencia, pero la VRAM de una sola tarjeta puede ser limitante.&lt;/li&gt;
&lt;li&gt;Puede ser divertido experimentar con varias tarjetas antiguas de 8 GB, pero no son ideales para ejecutar modelos grandes a largo plazo.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;resumen&#34;&gt;Resumen
&lt;/h2&gt;&lt;p&gt;La compatibilidad con múltiples GPU de Ollama se entiende mejor como &amp;ldquo;primero la expansión de VRAM y luego la aceleración del rendimiento&amp;rdquo;. Si el modelo cabe completamente en una GPU, la ruta predeterminada de una sola GPU suele ser más rápida. Si una GPU no puede contenerlo, varias GPU pueden distribuir el modelo entre dispositivos y evitar un gran desbordamiento de CPU/RAM, lo que hace que se puedan utilizar modelos más grandes.&lt;/p&gt;
&lt;p&gt;En la práctica, use &lt;code&gt;ollama ps&lt;/code&gt; para verificar dónde está cargado el modelo, luego use las herramientas &lt;code&gt;nvidia-smi&lt;/code&gt; o ROCm para observar la asignación de VRAM. Para la selección de GPU, use &lt;code&gt;CUDA_VISIBLE_DEVICES&lt;/code&gt; en NVIDIA, &lt;code&gt;ROCR_VISIBLE_DEVICES&lt;/code&gt; en AMD ROCm y &lt;code&gt;GGML_VK_VISIBLE_DEVICES&lt;/code&gt; para Vulkan. Si se ejecuta en Docker, primero asegúrese de que el contenedor pueda ver las GPU.&lt;/p&gt;
&lt;p&gt;La multi-GPU no es mágica. Puede ayudar a adaptar modelos más grandes, pero no garantiza una aceleración lineal. La ruta estable sigue siendo preferir GPU únicas con gran VRAM o configuraciones idénticas de múltiples GPU, considerando al mismo tiempo la compatibilidad con controladores, PCIe, alimentación, refrigeración y cuantificación de modelos.&lt;/p&gt;
&lt;h2 id=&#34;referencias&#34;&gt;Referencias
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;Preguntas frecuentes de Ollama: ¿Cómo carga Ollama modelos en múltiples GPU?: &lt;a class=&#34;link&#34; href=&#34;https://github.com/ollama/ollama/blob/main/docs/faq.mdx&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://github.com/ollama/ollama/blob/main/docs/faq.mdx&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;Documentos de Ollama GPU: soporte de hardware/selección de GPU: &lt;a class=&#34;link&#34; href=&#34;https://github.com/ollama/ollama/blob/main/docs/gpu.mdx&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://github.com/ollama/ollama/blob/main/docs/gpu.mdx&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;Centro Docker de Ollama: &lt;a class=&#34;link&#34; href=&#34;https://hub.docker.com/r/ollama/ollama&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://hub.docker.com/r/ollama/ollama&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;Kit de herramientas de contenedor NVIDIA: &lt;a class=&#34;link&#34; href=&#34;https://github.com/NVIDIA/nvidia-container-toolkit&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://github.com/NVIDIA/nvidia-container-toolkit&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
</description>
        </item>
        <item>
        <title>Cómo comprobar si un modelo de Ollama ya se cargó en la GPU</title>
        <link>https://www.knightli.com/es/2026/04/06/check-ollama-model-loaded-on-gpu/</link>
        <pubDate>Mon, 06 Apr 2026 10:15:18 +0800</pubDate>
        
        <guid>https://www.knightli.com/es/2026/04/06/check-ollama-model-loaded-on-gpu/</guid>
        <description>&lt;p&gt;Si quieres confirmar si un modelo de Ollama se está ejecutando realmente en la GPU, el método más directo es revisar la información de uso de procesador de los modelos cargados actualmente.&lt;/p&gt;
&lt;h2 id=&#34;comando&#34;&gt;Comando
&lt;/h2&gt;&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;ollama ps
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;h2 id=&#34;salida-de-ejemplo&#34;&gt;Salida de ejemplo
&lt;/h2&gt;&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-text&#34; data-lang=&#34;text&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;NAME        ID            SIZE    PROCESSOR   UNTIL
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;llama3:70b  bcfb190ca3a7  42 GB   100% GPU    4 minutes from now
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;h2 id=&#34;cómo-interpretar-la-columna-processor&#34;&gt;Cómo interpretar la columna &lt;code&gt;PROCESSOR&lt;/code&gt;
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;code&gt;100% GPU&lt;/code&gt;: el modelo está cargado por completo en la memoria de la GPU.&lt;/li&gt;
&lt;li&gt;&lt;code&gt;100% CPU&lt;/code&gt;: el modelo está cargado por completo en la memoria del sistema (no usa GPU para inferencia).&lt;/li&gt;
&lt;li&gt;&lt;code&gt;48%/52% CPU/GPU&lt;/code&gt;: una parte del modelo está en memoria del sistema y otra en memoria de GPU; es una carga mixta.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;consejos-prácticos&#34;&gt;Consejos prácticos
&lt;/h2&gt;&lt;ol&gt;
&lt;li&gt;Si esperas usar GPU pero ves &lt;code&gt;100% CPU&lt;/code&gt;, revisa primero el driver de la tarjeta gráfica, el entorno CUDA/ROCm y los parámetros de ejecución de Ollama.&lt;/li&gt;
&lt;li&gt;Cuando el modelo es grande y la memoria de GPU no alcanza, suele aparecer una carga mixta CPU/GPU.&lt;/li&gt;
&lt;li&gt;Al diagnosticar problemas de rendimiento, ejecuta primero &lt;code&gt;ollama ps&lt;/code&gt; y luego mira los datos de velocidad; así podrás ubicar antes el cuello de botella.&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;resumen&#34;&gt;Resumen
&lt;/h2&gt;&lt;p&gt;&lt;code&gt;ollama ps&lt;/code&gt; es el primer paso para saber si un modelo está usando realmente la GPU. Basta con fijarse en la columna &lt;code&gt;PROCESSOR&lt;/code&gt; para confirmar rápidamente dónde está cargado el modelo y decidir la siguiente dirección de optimización.&lt;/p&gt;
&lt;!-- ollama-related-links:start --&gt;
</description>
        </item>
        
    </channel>
</rss>
