<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>Prueba De Rendimiento on KnightLi Blog</title>
        <link>https://www.knightli.com/es/tags/prueba-de-rendimiento/</link>
        <description>Recent content in Prueba De Rendimiento on KnightLi Blog</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>es</language>
        <lastBuildDate>Wed, 08 Apr 2026 18:42:00 +0800</lastBuildDate><atom:link href="https://www.knightli.com/es/tags/prueba-de-rendimiento/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>Gemma 4 en Raspberry Pi 5: viable, pero con respuestas lentas</title>
        <link>https://www.knightli.com/es/2026/04/08/gemma4-on-raspberry-pi5-benchmark/</link>
        <pubDate>Wed, 08 Apr 2026 18:42:00 +0800</pubDate>
        
        <guid>https://www.knightli.com/es/2026/04/08/gemma4-on-raspberry-pi5-benchmark/</guid>
        <description>&lt;p&gt;Un intento un poco extremo: ejecutar Gemma 4 en una &lt;code&gt;Raspberry Pi 5 (8GB RAM)&lt;/code&gt;. El objetivo no fue una versión grande del modelo, sino el modelo más pequeño &lt;code&gt;E2B&lt;/code&gt;.&lt;/p&gt;
&lt;p&gt;La conclusión primero: puede ejecutarse y es usable, pero encaja mejor en escenarios con poca interacción. No es ideal para una experiencia conversacional con alta exigencia de tiempo real.&lt;/p&gt;
&lt;h2 id=&#34;entorno-de-prueba&#34;&gt;Entorno de prueba
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;Dispositivo: Raspberry Pi 5 (CPU de 4 núcleos, 8GB RAM)&lt;/li&gt;
&lt;li&gt;Sistema: Ubuntu Server (sin interfaz gráfica)&lt;/li&gt;
&lt;li&gt;Acceso: SSH&lt;/li&gt;
&lt;li&gt;Forma de ejecución del modelo: LM Studio CLI (solo modo línea de comandos)&lt;/li&gt;
&lt;li&gt;Modelo: Gemma 4 E2B (aprox. 4.5GB)&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;paso-1-instalar-e-iniciar-lm-studio-cli&#34;&gt;Paso 1: instalar e iniciar LM Studio CLI
&lt;/h2&gt;&lt;p&gt;Instala la versión CLI de LM Studio, inicia el servicio y consulta los comandos disponibles.&lt;/p&gt;
&lt;p&gt;Como es un entorno puro de línea de comandos, este método de despliegue solo por CLI encaja muy bien con Raspberry Pi.&lt;/p&gt;
&lt;h2 id=&#34;paso-2-mover-el-almacenamiento-de-modelos-a-un-ssd&#34;&gt;Paso 2: mover el almacenamiento de modelos a un SSD
&lt;/h2&gt;&lt;p&gt;Para evitar lecturas y escrituras frecuentes en la tarjeta SD, moví el directorio de descarga de modelos a un SSD externo.&lt;/p&gt;
&lt;p&gt;La experiencia de conectar un SSD a Raspberry Pi 5 es claramente más práctica que en modelos anteriores. Para ejecutar modelos locales durante mucho tiempo, conviene priorizar SSD.&lt;/p&gt;
&lt;h2 id=&#34;paso-3-descargar-y-cargar-gemma-4-e2b&#34;&gt;Paso 3: descargar y cargar Gemma 4 E2B
&lt;/h2&gt;&lt;p&gt;Después de la descarga, el modelo puede cargarse correctamente en memoria.&lt;/p&gt;
&lt;p&gt;Según la información oficial, la serie Gemma 4 cuenta con:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Capacidad de tool calling orientada a escenarios Agent (function calling)&lt;/li&gt;
&lt;li&gt;Capacidades multimodales (incluyendo imagen/video; los modelos pequeños también tienen capacidades relacionadas con voz)&lt;/li&gt;
&lt;li&gt;Ventana de contexto &lt;code&gt;128K&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;Licencia Apache 2.0 (usable comercialmente)&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Viendo las condiciones de hardware de Raspberry Pi, la variante E2B es la más adecuada para empezar a probar.&lt;/p&gt;
&lt;h2 id=&#34;paso-4-iniciar-la-api-y-abrir-acceso-en-la-red-local&#34;&gt;Paso 4: iniciar la API y abrir acceso en la red local
&lt;/h2&gt;&lt;p&gt;Después de cargar el modelo, primero inicié la API en el puerto local (&lt;code&gt;4000&lt;/code&gt;) y confirmé mediante una petición HTTP que la lista de modelos podía devolverse.&lt;/p&gt;
&lt;p&gt;El problema es que, por defecto, solo escucha en la propia máquina, así que otros dispositivos de la LAN no pueden acceder directamente.&lt;/p&gt;
&lt;p&gt;Como los parámetros de inicio no permitían configurar directamente el host, usé &lt;code&gt;socat&lt;/code&gt; para hacer reenvío de puerto: las peticiones al puerto externo de la Raspberry Pi se puentean al puerto interno de LM Studio, permitiendo acceso por LAN.&lt;/p&gt;
&lt;p&gt;El resultado fue viable: desde un MacBook en la misma red local pude hacer la petición y obtener correctamente la lista de modelos.&lt;/p&gt;
&lt;h2 id=&#34;paso-5-integración-con-editor-zed&#34;&gt;Paso 5: integración con editor (Zed)
&lt;/h2&gt;&lt;p&gt;El servicio local de LM Studio es compatible con la forma de la OpenAI API, por lo que la mayoría de herramientas que soportan &lt;code&gt;base_url&lt;/code&gt; personalizado pueden conectarse directamente.&lt;/p&gt;
&lt;p&gt;En Zed añadí un nuevo LLM provider apuntando a la instancia de Gemma 4 en la Raspberry Pi, y después la prueba de chat dentro del editor funcionó.&lt;/p&gt;
&lt;h2 id=&#34;juicio-de-usabilidad-real&#34;&gt;Juicio de usabilidad real
&lt;/h2&gt;&lt;p&gt;Esta solución encaja con:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Scripts locales de automatización&lt;/li&gt;
&lt;li&gt;Tareas auxiliares de baja concurrencia y baja exigencia de tiempo real&lt;/li&gt;
&lt;li&gt;Aprendizaje personal y experimentos en dispositivos edge&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;No encaja tanto con:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Chat interactivo de alta frecuencia&lt;/li&gt;
&lt;li&gt;Escenarios de colaboración de desarrollo sensibles a la latencia&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;conclusión&#34;&gt;Conclusión
&lt;/h2&gt;&lt;p&gt;Ejecutar Gemma 4 (E2B) en &lt;code&gt;Raspberry Pi 5&lt;/code&gt; es viable, y el resultado real fue mejor de lo esperado.&lt;/p&gt;
&lt;p&gt;Si tu objetivo es &amp;ldquo;poder ejecutarlo offline, conectarlo a herramientas y completar tareas ligeras o medias&amp;rdquo;, esta ruta merece probarse. Si el objetivo es interacción fluida en tiempo real, sigue siendo recomendable usar hardware más potente.&lt;/p&gt;
</description>
        </item>
        
    </channel>
</rss>
