<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>OpenClaw on KnightLi Blog</title>
        <link>https://www.knightli.com/es/tags/openclaw/</link>
        <description>Recent content in OpenClaw on KnightLi Blog</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>es</language>
        <lastBuildDate>Fri, 10 Apr 2026 09:16:17 +0800</lastBuildDate><atom:link href="https://www.knightli.com/es/tags/openclaw/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>OpenClaw y Agent Harness: por qué parece AGI</title>
        <link>https://www.knightli.com/es/2026/04/10/openclaw-agent-architecture-enterprise-ai/</link>
        <pubDate>Fri, 10 Apr 2026 09:16:17 +0800</pubDate>
        
        <guid>https://www.knightli.com/es/2026/04/10/openclaw-agent-architecture-enterprise-ai/</guid>
        <description>&lt;p&gt;Mucha gente, al entrar en contacto por primera vez con OpenClaw, siente que &amp;ldquo;se parece más a un compañero que hace cosas que a un chatbot&amp;rdquo;.&lt;/p&gt;
&lt;p&gt;Esa sensación no es misteriosa. La clave está en que OpenClaw no es un salto de capacidad de un único modelo, sino un &lt;strong&gt;Agent Harness&lt;/strong&gt; completo.&lt;/p&gt;
&lt;h2 id=&#34;conclusión-primero&#34;&gt;Conclusión primero
&lt;/h2&gt;&lt;p&gt;La esencia de OpenClaw puede resumirse así:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;El modelo se encarga de entender y decidir&lt;/li&gt;
&lt;li&gt;El Harness se encarga de memoria, herramientas, disparadores, ejecución y salida&lt;/li&gt;
&lt;li&gt;Ambos colaboran mediante un bucle, generando la experiencia de &amp;ldquo;acción continua&amp;rdquo;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Por eso la razón central de que &amp;ldquo;parezca AGI&amp;rdquo; no es que el modelo se haya vuelto omnipotente de pronto, sino que la ingeniería del sistema amplifica la ejecutabilidad del modelo.&lt;/p&gt;
&lt;h2 id=&#34;qué-es-harness&#34;&gt;Qué es Harness
&lt;/h2&gt;&lt;p&gt;Puedes entender Harness como un &amp;ldquo;exoesqueleto&amp;rdquo; puesto sobre el modelo.&lt;/p&gt;
&lt;p&gt;Un LLM por sí solo normalmente solo puede dar una respuesta dentro de una solicitud. El Harness completa estas capacidades:&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;Gestión de sesión y estado: conecta tareas de varias rondas&lt;/li&gt;
&lt;li&gt;Mecanismo de memoria: guarda y recupera contexto según necesidad&lt;/li&gt;
&lt;li&gt;Sistema de herramientas: llama navegador, terminal, archivos y APIs externas&lt;/li&gt;
&lt;li&gt;Mecanismo de disparo: se despierta por temporizador o evento, sin tener que esperar siempre una pregunta humana&lt;/li&gt;
&lt;li&gt;Canal de salida: escribe resultados de vuelta al sistema, no solo devuelve un texto&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Cuando estas capacidades se integran en un mismo bucle, el modelo pasa de &amp;ldquo;respondedor&amp;rdquo; a &amp;ldquo;ejecutor&amp;rdquo;.&lt;/p&gt;
&lt;h2 id=&#34;por-qué-openclaw-parece-distinto&#34;&gt;Por qué OpenClaw parece distinto
&lt;/h2&gt;&lt;p&gt;El chatbot tradicional es &amp;ldquo;preguntas una vez, responde una vez&amp;rdquo;.&lt;/p&gt;
&lt;p&gt;OpenClaw se parece más a &amp;ldquo;observa -&amp;gt; llama herramientas -&amp;gt; mira resultados -&amp;gt; decide de nuevo&amp;rdquo;. Una vez que el bucle se establece, muestra capacidad de avanzar tareas de forma continua.&lt;/p&gt;
&lt;p&gt;Esto también es lo más valioso para aprender de OpenClaw:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Demuestra que la experiencia Agent viene principalmente del diseño de arquitectura&lt;/li&gt;
&lt;li&gt;Divide la &amp;ldquo;autonomía&amp;rdquo; en módulos que pueden construirse con ingeniería&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;valor-y-límites&#34;&gt;Valor y límites
&lt;/h2&gt;&lt;p&gt;La ventaja de OpenClaw es ser general y flexible, pero el coste también es claro:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Cuanto más contexto y definiciones de herramientas haya, mayor será el coste&lt;/li&gt;
&lt;li&gt;Cuanto más general sea el sistema, más complejos serán el debugging y la gobernanza&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;En escenarios de producción, muchos equipos elegirán Agent más pequeños y especializados, no un &amp;ldquo;agente todopoderoso&amp;rdquo;.&lt;/p&gt;
</description>
        </item>
        <item>
        <title>Cronología completa del bloqueo de OpenClaw por Anthropic</title>
        <link>https://www.knightli.com/es/2026/04/08/anthropic-openclaw-timeline-2026-04/</link>
        <pubDate>Wed, 08 Apr 2026 19:48:42 +0800</pubDate>
        
        <guid>https://www.knightli.com/es/2026/04/08/anthropic-openclaw-timeline-2026-04/</guid>
        <description>&lt;h2 id=&#34;contexto-del-evento&#34;&gt;Contexto del evento
&lt;/h2&gt;&lt;p&gt;El 4 de abril de 2026, Anthropic anunció que dejaría de cubrir herramientas de terceros como OpenClaw mediante suscripciones de Claude.&lt;/p&gt;
&lt;p&gt;El impacto directo para los usuarios fue que los flujos de terceros que antes dependían de la ruta de suscripción para acceder a Claude tuvieron que cambiar a otros métodos de acceso o cambiar de modelo.&lt;/p&gt;
&lt;h2 id=&#34;cronología-enero-a-abril-de-2026&#34;&gt;Cronología (enero a abril de 2026)
&lt;/h2&gt;&lt;h3 id=&#34;enero-de-2026&#34;&gt;Enero de 2026
&lt;/h3&gt;&lt;p&gt;Según reportes públicos, Anthropic pidió al proyecto entonces llamado Clawdbot que ajustara su nombre, con el argumento de que su pronunciación era cercana a Claude.&lt;/p&gt;
&lt;p&gt;En la misma etapa, la comunidad empezó a reportar límites en llamadas de terceros usando credenciales de suscripción.&lt;/p&gt;
&lt;h3 id=&#34;febrero-de-2026&#34;&gt;Febrero de 2026
&lt;/h3&gt;&lt;p&gt;Las restricciones relacionadas se incorporaron a los términos de servicio, aclarando más el límite entre suscripción y llamadas automatizadas de terceros.&lt;/p&gt;
&lt;p&gt;Ese mismo mes, OpenClaw lanzó v4.0 y cambió su arquitectura interna a backends de modelo enchufables. Es decir, el modelo dejó de ser una única entrada fija y pasó a poder alternar entre varios proveedores.&lt;/p&gt;
&lt;h3 id=&#34;marzo-de-2026&#34;&gt;Marzo de 2026
&lt;/h3&gt;&lt;p&gt;Anthropic lanzó Claude Dispatch y Computer Use, cubriendo capacidades como ejecución de tareas remotas y operación de escritorio.&lt;/p&gt;
&lt;p&gt;OpenClaw siguió avanzando en su capa de compatibilidad en actualizaciones posteriores, unificando diferencias entre modelos en autenticación, formato de tool calling y estructura de respuesta para reducir el coste de migración al cambiar de modelo.&lt;/p&gt;
&lt;p&gt;Los reportes públicos también mencionaron que el equipo de OpenClaw y Anthropic se comunicaron a finales de marzo, pero la dirección estratégica final no cambió.&lt;/p&gt;
&lt;h3 id=&#34;4-de-abril-de-2026&#34;&gt;4 de abril de 2026
&lt;/h3&gt;&lt;p&gt;Anthropic ejecutó formalmente el corte de cobertura de suscripción para herramientas de terceros.&lt;/p&gt;
&lt;p&gt;Esto marcó que los ajustes estratégicos de los meses anteriores entraron en fase de ejecución.&lt;/p&gt;
&lt;h3 id=&#34;5-de-abril-de-2026&#34;&gt;5 de abril de 2026
&lt;/h3&gt;&lt;p&gt;OpenClaw lanzó v4.5, con acciones principales como:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Ajustar la prioridad de entradas de modelo en el flujo de onboarding&lt;/li&gt;
&lt;li&gt;Integrar rutas alternativas como GPT-5.4&lt;/li&gt;
&lt;li&gt;Continuar adaptando flujos de tarea y experiencia interactiva&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Por la fecha de lanzamiento, la capacidad de cambio de OpenClaw no fue construida totalmente de emergencia, sino sobre la base de la reforma multi-modelo iniciada desde febrero.&lt;/p&gt;
&lt;h2 id=&#34;dos-direcciones-paralelas-durante-el-proceso&#34;&gt;Dos direcciones paralelas durante el proceso
&lt;/h2&gt;&lt;p&gt;Según la cronología, ambas partes avanzaron en direcciones distintas durante el mismo periodo:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Anthropic: estrechar los límites de suscripción e impulsar la integración de capacidades en productos oficiales&lt;/li&gt;
&lt;li&gt;OpenClaw: reforzar la sustituibilidad de modelos y mejorar compatibilidad entre modelos&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Estas dos rutas no son contradictorias, pero compiten en la &amp;ldquo;propiedad de la entrada&amp;rdquo; y en dónde se acumula el flujo de trabajo del usuario.&lt;/p&gt;
&lt;h2 id=&#34;estado-actual-hasta-abril-de-2026&#34;&gt;Estado actual (hasta abril de 2026)
&lt;/h2&gt;&lt;p&gt;Con base en la información pública, se pueden confirmar estos hechos:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;El corte de cobertura de suscripción ya se ejecutó&lt;/li&gt;
&lt;li&gt;OpenClaw completó el cambio principal de rutas de modelo y mantiene iteración de versiones&lt;/li&gt;
&lt;li&gt;Que el usuario perciba cambios claros depende de cuánto dependiera su flujo anterior de una sola capacidad de modelo&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;puntos-de-observación-posteriores&#34;&gt;Puntos de observación posteriores
&lt;/h2&gt;&lt;p&gt;Lo que más merece seguimiento ahora no es el evento puntual en sí, sino tres cosas:&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;Si los límites entre suscripciones y llamadas API seguirán refinándose&lt;/li&gt;
&lt;li&gt;El rendimiento de largo plazo de Agent multi-modelo en estabilidad, coste y experiencia&lt;/li&gt;
&lt;li&gt;Si el flujo de trabajo del usuario terminará acumulándose en la capa de modelo, en la capa de herramienta o en una capa híbrida entre ambas&lt;/li&gt;
&lt;/ol&gt;
</description>
        </item>
        <item>
        <title>Conectar OpenClaw con Gemma 4 local: guía completa de configuración</title>
        <link>https://www.knightli.com/es/2026/04/08/openclaw-connect-gemma4-local/</link>
        <pubDate>Wed, 08 Apr 2026 18:18:00 +0800</pubDate>
        
        <guid>https://www.knightli.com/es/2026/04/08/openclaw-connect-gemma4-local/</guid>
        <description>&lt;p&gt;Este artículo muestra cómo conectar &lt;code&gt;OpenClaw&lt;/code&gt; a un modelo &lt;code&gt;Gemma 4&lt;/code&gt; local, exponiendo la interfaz mediante &lt;code&gt;Ollama&lt;/code&gt;.&lt;/p&gt;
&lt;p&gt;Si todavía no completaste el despliegue local, puedes consultar primero:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://www.knightli.com/es/2026/04/08/run-gemma4-on-laptop/&#34; &gt;Cómo ejecutar Gemma 4 en un portátil: guía de despliegue local en 5 minutos&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;paso-1-iniciar-el-servicio-api-de-ollama&#34;&gt;Paso 1: iniciar el servicio API de Ollama
&lt;/h2&gt;&lt;p&gt;Primero inicia el servicio de Ollama:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;ollama serve
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Puedes probar rápidamente si la API funciona con el siguiente comando:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;3
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;4
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;curl http://localhost:11434/api/generate -d &lt;span class=&#34;s1&#34;&gt;&amp;#39;{
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;s1&#34;&gt;  &amp;#34;model&amp;#34;: &amp;#34;gemma4:12b&amp;#34;,
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;s1&#34;&gt;  &amp;#34;prompt&amp;#34;: &amp;#34;你好&amp;#34;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;s1&#34;&gt;}&amp;#39;&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Si devuelve salida del modelo, significa que la API local ya está disponible.&lt;/p&gt;
&lt;h2 id=&#34;paso-2-configurar-openclaw-para-acceder-a-ollama&#34;&gt;Paso 2: configurar OpenClaw para acceder a Ollama
&lt;/h2&gt;&lt;p&gt;La ruta habitual del archivo de configuración de OpenClaw es:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-text&#34; data-lang=&#34;text&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;~/.openclaw/config.yaml
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Edita &lt;code&gt;config.yaml&lt;/code&gt; y añade una entrada de modelo local dentro de &lt;code&gt;models&lt;/code&gt;:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;3
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;4
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;5
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;6
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;7
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;8
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-yaml&#34; data-lang=&#34;yaml&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;nt&#34;&gt;models&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;&lt;span class=&#34;w&#34;&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;w&#34;&gt;  &lt;/span&gt;&lt;span class=&#34;c&#34;&gt;# 你已有的模型配置...&lt;/span&gt;&lt;span class=&#34;w&#34;&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;w&#34;&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;w&#34;&gt;  &lt;/span&gt;&lt;span class=&#34;nt&#34;&gt;gemma4-local&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;&lt;span class=&#34;w&#34;&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;w&#34;&gt;    &lt;/span&gt;&lt;span class=&#34;nt&#34;&gt;provider&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;l&#34;&gt;ollama&lt;/span&gt;&lt;span class=&#34;w&#34;&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;w&#34;&gt;    &lt;/span&gt;&lt;span class=&#34;nt&#34;&gt;base_url&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;l&#34;&gt;http://localhost:11434&lt;/span&gt;&lt;span class=&#34;w&#34;&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;w&#34;&gt;    &lt;/span&gt;&lt;span class=&#34;nt&#34;&gt;model&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;l&#34;&gt;gemma4:12b&lt;/span&gt;&lt;span class=&#34;w&#34;&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;w&#34;&gt;    &lt;/span&gt;&lt;span class=&#34;nt&#34;&gt;timeout&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;l&#34;&gt;120s&lt;/span&gt;&lt;span class=&#34;w&#34;&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;h2 id=&#34;paso-3-establecer-el-modelo-predeterminado-opcional&#34;&gt;Paso 3: establecer el modelo predeterminado (opcional)
&lt;/h2&gt;&lt;p&gt;Si quieres que Gemma 4 sea el modelo predeterminado, añade:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-yaml&#34; data-lang=&#34;yaml&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;nt&#34;&gt;default_model&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;l&#34;&gt;gemma4-local&lt;/span&gt;&lt;span class=&#34;w&#34;&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;h2 id=&#34;paso-4-reiniciar-y-verificar-openclaw&#34;&gt;Paso 4: reiniciar y verificar OpenClaw
&lt;/h2&gt;&lt;p&gt;Reinicia OpenClaw:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;openclaw restart
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Consulta la lista de modelos:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;openclaw models list
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Inicia una conversación de prueba:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;openclaw chat --model gemma4-local &lt;span class=&#34;s2&#34;&gt;&amp;#34;你好&amp;#34;&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Si la conversación devuelve respuesta con normalidad, OpenClaw ya se conectó correctamente a Gemma 4 local.&lt;/p&gt;
&lt;h2 id=&#34;diagnóstico-habitual&#34;&gt;Diagnóstico habitual
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;code&gt;connection refused&lt;/code&gt;: confirma primero si &lt;code&gt;ollama serve&lt;/code&gt; está ejecutándose.&lt;/li&gt;
&lt;li&gt;Modelo no encontrado: comprueba que el nombre del modelo coincida con &lt;code&gt;ollama list&lt;/code&gt; (por ejemplo &lt;code&gt;gemma4:12b&lt;/code&gt;).&lt;/li&gt;
&lt;li&gt;Timeout de respuesta: puedes aumentar &lt;code&gt;timeout&lt;/code&gt; y probar primero con un modelo más pequeño.&lt;/li&gt;
&lt;/ul&gt;
</description>
        </item>
        
    </channel>
</rss>
