<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>Open Source on KnightLi Blog</title>
        <link>https://www.knightli.com/es/tags/open-source/</link>
        <description>Recent content in Open Source on KnightLi Blog</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>es</language>
        <lastBuildDate>Mon, 11 May 2026 08:51:37 +0800</lastBuildDate><atom:link href="https://www.knightli.com/es/tags/open-source/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>Ejecutar DeepSeek 4 en local: el experimento ds4 de Antirez en Apple Silicon Mac</title>
        <link>https://www.knightli.com/es/2026/05/11/deepseek-v4-flash-ds4-metal/</link>
        <pubDate>Mon, 11 May 2026 08:51:37 +0800</pubDate>
        
        <guid>https://www.knightli.com/es/2026/05/11/deepseek-v4-flash-ds4-metal/</guid>
        <description>&lt;p&gt;Antirez ha publicado un nuevo proyecto open source: &lt;code&gt;ds4&lt;/code&gt;. No es un framework LLM de propósito general, sino un motor de inferencia local para DeepSeek V4 Flash, centrado en Apple Silicon y el backend Metal.&lt;/p&gt;
&lt;p&gt;URL del proyecto: &lt;a class=&#34;link&#34; href=&#34;https://github.com/antirez/ds4&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://github.com/antirez/ds4&lt;/a&gt;&lt;/p&gt;
&lt;h2 id=&#34;qué-es-ds4&#34;&gt;Qué es ds4
&lt;/h2&gt;&lt;p&gt;&lt;code&gt;ds4&lt;/code&gt; tiene un objetivo muy claro: ejecutar DeepSeek V4 Flash localmente en un Mac.&lt;/p&gt;
&lt;p&gt;Actualmente ofrece tres formas de uso:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;CLI interactiva.&lt;/li&gt;
&lt;li&gt;HTTP server.&lt;/li&gt;
&lt;li&gt;Un modo Agent experimental.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Por su posicionamiento, se parece más a un proyecto de inferencia profundamente optimizado para un modelo específico que a un reemplazo de herramientas generales como &lt;code&gt;llama.cpp&lt;/code&gt;, Ollama o vLLM.&lt;/p&gt;
&lt;h2 id=&#34;por-qué-merece-atención&#34;&gt;Por qué merece atención
&lt;/h2&gt;&lt;p&gt;Hay tres razones principales por las que este tipo de proyecto merece atención.&lt;/p&gt;
&lt;p&gt;La primera es que su autor es Antirez, creador de Redis. Lleva mucho tiempo interesado en sistemas de bajo nivel, rendimiento y herramientas simples, y sus proyectos suelen tener un estilo bastante directo.&lt;/p&gt;
&lt;p&gt;La segunda es que DeepSeek V4 Flash apunta a una inferencia eficiente. Si la experiencia local es lo bastante buena, puede resultar muy atractivo para usuarios de Mac.&lt;/p&gt;
&lt;p&gt;La tercera es que &lt;code&gt;ds4&lt;/code&gt; apunta directamente a Apple Metal. En lugar de intentar soportar todas las plataformas primero y optimizar después, parece buscar profundidad en un escenario muy definido.&lt;/p&gt;
&lt;h2 id=&#34;para-quién-es&#34;&gt;Para quién es
&lt;/h2&gt;&lt;p&gt;&lt;code&gt;ds4&lt;/code&gt; encaja mejor con usuarios que:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Usan un Apple Silicon Mac.&lt;/li&gt;
&lt;li&gt;Quieren ejecutar DeepSeek V4 Flash en local.&lt;/li&gt;
&lt;li&gt;Se interesan por el rendimiento de inferencia con Metal.&lt;/li&gt;
&lt;li&gt;Están dispuestos a probar un proyecto en fase alpha.&lt;/li&gt;
&lt;li&gt;Quieren estudiar motores de inferencia ligeros y detalles de ejecución de modelos.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Si tu objetivo es un despliegue estable, ejecución multiplataforma o una infraestructura compatible con OpenAI API, probablemente no sea la primera opción en esta etapa. Tiene más sentido como herramienta experimental y como proyecto técnico para observar.&lt;/p&gt;
&lt;h2 id=&#34;cómo-usarlo&#34;&gt;Cómo usarlo
&lt;/h2&gt;&lt;p&gt;El flujo básico que muestra el README del proyecto es compilar primero y ejecutar después.&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;3
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;git clone https://github.com/antirez/ds4.git
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;nb&#34;&gt;cd&lt;/span&gt; ds4
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;make
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Ejecución interactiva:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;./ds4
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Iniciar el HTTP server:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;./ds4 --server
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Modo Agent:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;./ds4 --agent
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Para los parámetros concretos y la preparación de los archivos del modelo, conviene seguir el README del repositorio, porque el proyecto todavía cambia con rapidez.&lt;/p&gt;
&lt;h2 id=&#34;riesgos-actuales&#34;&gt;Riesgos actuales
&lt;/h2&gt;&lt;p&gt;&lt;code&gt;ds4&lt;/code&gt; todavía está en una etapa temprana, así que conviene ajustar expectativas antes de usarlo:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Las funciones pueden estar incompletas.&lt;/li&gt;
&lt;li&gt;Los parámetros, formatos de modelo y comportamientos de línea de comandos pueden cambiar.&lt;/li&gt;
&lt;li&gt;La compatibilidad gira principalmente alrededor de Apple Silicon y Metal.&lt;/li&gt;
&lt;li&gt;El modo Agent es más experimental y no es adecuado para usarlo directamente en producción.&lt;/li&gt;
&lt;li&gt;Si surge un problema, quizá tengas que leer el README, los issues o el código fuente por tu cuenta.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;En otras palabras, ahora mismo se parece más a un experimento open source que vale la pena probar que a una herramienta de un clic para usuarios generales.&lt;/p&gt;
&lt;h2 id=&#34;diferencias-frente-a-herramientas-de-inferencia-generales&#34;&gt;Diferencias frente a herramientas de inferencia generales
&lt;/h2&gt;&lt;p&gt;Las herramientas de inferencia generales suelen buscar compatibilidad amplia con formatos de modelo, plataformas, backends y APIs. &lt;code&gt;ds4&lt;/code&gt; toma un camino más estrecho: ejecutar DeepSeek V4 Flash en local con Metal.&lt;/p&gt;
&lt;p&gt;Esa decisión tiene ventajas y costes.&lt;/p&gt;
&lt;p&gt;La ventaja es que la implementación puede mantenerse enfocada, lo que facilita optimizar rendimiento y experiencia alrededor de un único objetivo. El coste es un alcance limitado: no está pensado para ejecutar todo tipo de modelos ni para sustituir una plataforma completa de despliegue.&lt;/p&gt;
&lt;p&gt;Si ya usas &lt;code&gt;llama.cpp&lt;/code&gt; u Ollama, &lt;code&gt;ds4&lt;/code&gt; puede servir como herramienta complementaria de pruebas, no como sustituto inmediato de tu flujo de trabajo actual.&lt;/p&gt;
&lt;h2 id=&#34;resumen&#34;&gt;Resumen
&lt;/h2&gt;&lt;p&gt;Lo interesante de &lt;code&gt;ds4&lt;/code&gt; no es que sea otra herramienta local para grandes modelos. Lo interesante es que reduce mucho su alcance: DeepSeek V4 Flash, Apple Silicon, Metal e inferencia local.&lt;/p&gt;
&lt;p&gt;Si tienes un Mac adecuado y te apetece experimentar con un proyecto temprano, vale la pena seguir su rendimiento, su forma de soportar modelos y la evolución de sus capacidades de server/agent. Para entornos de producción, es mejor observar un poco más y evaluarlo cuando las interfaces y la forma de uso sean más estables.&lt;/p&gt;
&lt;h2 id=&#34;referencias&#34;&gt;Referencias
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;Proyecto en GitHub: &lt;a class=&#34;link&#34; href=&#34;https://github.com/antirez/ds4&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://github.com/antirez/ds4&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
</description>
        </item>
        <item>
        <title>Pixelle-Video: un motor open source de IA para generar videos cortos a partir de un tema</title>
        <link>https://www.knightli.com/es/2026/05/07/pixelle-video-ai-short-video-engine/</link>
        <pubDate>Thu, 07 May 2026 20:25:17 +0800</pubDate>
        
        <guid>https://www.knightli.com/es/2026/05/07/pixelle-video-ai-short-video-engine/</guid>
        <description>&lt;p&gt;&lt;a class=&#34;link&#34; href=&#34;https://github.com/AIDC-AI/Pixelle-Video&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Pixelle-Video&lt;/a&gt; es un motor open source totalmente automatizado para generar videos cortos, creado por AIDC-AI. Su objetivo es directo: el usuario introduce un tema, y el sistema escribe automaticamente el guion, genera imagenes o videos con IA, crea narracion de voz, anade musica de fondo y renderiza el video final.&lt;/p&gt;
&lt;p&gt;Este tipo de herramienta es util para creacion masiva de videos cortos, explicadores de conocimiento, contenido talking-head, resumenes de novelas, videos de historia y cultura, y experimentos de self-media. No es un unico modelo text-to-video. Es una linea de produccion que conecta varias capacidades de IA.&lt;/p&gt;
&lt;h2 id=&#34;que-automatiza&#34;&gt;Que automatiza
&lt;/h2&gt;&lt;p&gt;El flujo por defecto de Pixelle-Video puede resumirse asi:&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;introducir un tema o un guion fijo;&lt;/li&gt;
&lt;li&gt;usar un LLM para generar la narracion;&lt;/li&gt;
&lt;li&gt;planificar escenas y generar imagenes o clips de video;&lt;/li&gt;
&lt;li&gt;usar TTS para crear la narracion de voz;&lt;/li&gt;
&lt;li&gt;anadir musica de fondo;&lt;/li&gt;
&lt;li&gt;aplicar una plantilla de video y renderizar el resultado final.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;El README describe el flujo como &amp;ldquo;generacion de guion -&amp;gt; planificacion de imagenes -&amp;gt; procesamiento fotograma a fotograma -&amp;gt; composicion de video&amp;rdquo;. El diseno modular es claro: cada paso puede reemplazarse, ajustarse o conectarse a un flujo personalizado.&lt;/p&gt;
&lt;h2 id=&#34;funciones-principales&#34;&gt;Funciones principales
&lt;/h2&gt;&lt;p&gt;El proyecto cubre un conjunto bastante completo de capacidades:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;escritura de guion con IA: genera automaticamente narracion a partir de un tema;&lt;/li&gt;
&lt;li&gt;generacion de imagenes con IA: crea ilustraciones para cada linea o escena;&lt;/li&gt;
&lt;li&gt;generacion de video con IA: conecta con modelos de generacion de video como WAN 2.1;&lt;/li&gt;
&lt;li&gt;voz TTS: soporta Edge-TTS, Index-TTS y otras opciones;&lt;/li&gt;
&lt;li&gt;musica de fondo: usa BGM integrada o musica personalizada;&lt;/li&gt;
&lt;li&gt;multiples relaciones de aspecto: soporta formatos verticales, horizontales y otros tamanos de video;&lt;/li&gt;
&lt;li&gt;multiples modelos: conecta con GPT, Qwen, DeepSeek, Ollama y mas;&lt;/li&gt;
&lt;li&gt;flujos ComfyUI: usa workflows integrados o reemplaza pasos de imagen, TTS y generacion de video.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Las actualizaciones recientes tambien mencionan motion transfer, videos talking-head con humano digital, pipelines image-to-video, voces TTS multilingues, soporte RunningHub y un paquete todo-en-uno para Windows. El proyecto claramente esta avanzando mas alla de un simple script hacia una herramienta de creacion mas completa.&lt;/p&gt;
&lt;h2 id=&#34;instalacion-y-arranque&#34;&gt;Instalacion y arranque
&lt;/h2&gt;&lt;p&gt;Los usuarios de Windows pueden mirar primero el paquete oficial todo-en-uno. Esta disenado para reducir friccion de configuracion: no hace falta instalar manualmente Python, uv ni ffmpeg. Despues de extraer el paquete, ejecuta &lt;code&gt;start.bat&lt;/code&gt;, abre la interfaz web y configura las APIs necesarias y el servicio de generacion de imagenes.&lt;/p&gt;
&lt;p&gt;Para instalar desde codigo fuente, el README da este flujo basico:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;3
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;git clone https://github.com/AIDC-AI/Pixelle-Video.git
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;nb&#34;&gt;cd&lt;/span&gt; Pixelle-Video
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;uv run streamlit run web/app.py
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;La ruta desde codigo fuente es adecuada para usuarios de macOS y Linux, y para cualquiera que quiera modificar plantillas, workflows o configuracion de servicios. Los requisitos principales son &lt;code&gt;uv&lt;/code&gt; y &lt;code&gt;ffmpeg&lt;/code&gt;.&lt;/p&gt;
&lt;h2 id=&#34;prioridades-de-configuracion&#34;&gt;Prioridades de configuracion
&lt;/h2&gt;&lt;p&gt;En el primer uso, lo importante no es pulsar &amp;ldquo;generate&amp;rdquo; inmediatamente. Lo importante es conectar bien las capacidades externas.&lt;/p&gt;
&lt;p&gt;La configuracion del LLM determina la calidad del guion. Puedes elegir modelos como Qwen, GPT, DeepSeek u Ollama, y luego rellenar API Key, Base URL y nombre del modelo. Si quieres minimizar costes, Ollama local es una opcion. Si quieres resultados mas estables, un modelo cloud suele ser mas sencillo.&lt;/p&gt;
&lt;p&gt;La configuracion de generacion de imagen y video determina la calidad visual. El proyecto soporta ComfyUI local y RunningHub. Los usuarios que entienden ComfyUI pueden colocar sus propios workflows bajo &lt;code&gt;workflows/&lt;/code&gt; para reemplazar el pipeline por defecto de imagen, video o TTS.&lt;/p&gt;
&lt;p&gt;La configuracion de plantillas determina la forma visual final. El proyecto organiza plantillas de video bajo &lt;code&gt;templates/&lt;/code&gt;, con reglas de nombres para plantillas estaticas, plantillas de imagen y plantillas de video. Para creadores, esto es mas practico que generar solo assets crudos, porque la salida es un video que puede previsualizarse y descargarse directamente.&lt;/p&gt;
&lt;h2 id=&#34;para-quien-es&#34;&gt;Para quien es
&lt;/h2&gt;&lt;p&gt;Pixelle-Video es especialmente adecuado para tres grupos:&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Creadores de videos cortos&lt;/strong&gt; que quieren convertir ideas en borradores de video rapidamente.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Usuarios de herramientas AIGC&lt;/strong&gt; que quieren conectar LLMs, ComfyUI, TTS y composicion de video.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Desarrolladores y usuarios de automatizacion&lt;/strong&gt; que quieren modificar plantillas, workflows o integrar sus propios materiales y modelos.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Si solo quieres hacer un unico video premium muy pulido, puede que no reemplace la edicion manual. Pero si quieres generar muchos explicadores, videos talking-head o videos de ciencia y educacion con una estructura consistente, su enfoque de pipeline tiene valor.&lt;/p&gt;
&lt;h2 id=&#34;puntos-a-tener-en-cuenta&#34;&gt;Puntos a tener en cuenta
&lt;/h2&gt;&lt;p&gt;El techo de este tipo de herramienta lo determinan varios eslabones de la cadena. Un modelo de guion debil produce contenido vacio; un modelo de imagen debil da visuales dispersos; un TTS poco natural hace que el video se sienta tosco; y una plantilla pobre debilita el resultado final.&lt;/p&gt;
&lt;p&gt;Por eso conviene empezar con un escenario fijo, por ejemplo un &amp;ldquo;explicador cientifico vertical de 60 segundos&amp;rdquo;. Fija primero el LLM, el estilo visual, la voz TTS, el BGM y la plantilla, y despues amplia a mas temas.&lt;/p&gt;
&lt;p&gt;El proyecto soporta una configuracion local gratuita, pero los setups locales suelen requerir GPU, configuracion de ComfyUI y archivos de modelos. Los usuarios sin entorno local de inferencia pueden reducir la dificultad usando un LLM cloud mas RunningHub, sin perder de vista el coste de uso.&lt;/p&gt;
&lt;h2 id=&#34;lectura-breve&#34;&gt;Lectura breve
&lt;/h2&gt;&lt;p&gt;Pixelle-Video es interesante no solo porque pueda &amp;ldquo;generar un video desde una frase&amp;rdquo;. Su valor real es que divide la produccion de videos cortos en modulos reemplazables: guion, visuales, voz, musica, plantillas y render. Para usuarios comunes, es una herramienta de video con IA de baja barrera. Para desarrolladores, se acerca mas a un framework hackeable de automatizacion de videos cortos.&lt;/p&gt;
&lt;p&gt;Si estas estudiando pipelines de videos cortos con IA, o quieres conectar ComfyUI, TTS, LLMs y renderizado con plantillas en un producto usable, Pixelle-Video merece probarse y diseccionarse.&lt;/p&gt;
</description>
        </item>
        
    </channel>
</rss>
