<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>Function Calling on KnightLi Blog</title>
        <link>https://www.knightli.com/es/tags/function-calling/</link>
        <description>Recent content in Function Calling on KnightLi Blog</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>es</language>
        <lastBuildDate>Sat, 16 May 2026 19:19:52 +0800</lastBuildDate><atom:link href="https://www.knightli.com/es/tags/function-calling/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>¿Cómo evolucionaron los AI Agents? Guía completa de cinco generaciones, 2022-2026</title>
        <link>https://www.knightli.com/es/2026/05/16/ai-agent-evolution-2022-2026/</link>
        <pubDate>Sat, 16 May 2026 19:19:52 +0800</pubDate>
        
        <guid>https://www.knightli.com/es/2026/05/16/ai-agent-evolution-2022-2026/</guid>
        <description>&lt;p&gt;Los AI Agents no aparecieron de un día para otro.&lt;/p&gt;
&lt;p&gt;A finales de 2022, ChatGPT era principalmente una ventana de chat. Para 2026, los agentes empezaron a tener llamadas de herramientas, operaciones con archivos, control del ordenador, memoria a largo plazo, colaboración remota y ejecución persistente. En cuatro años pasaron de &amp;ldquo;modelos que responden preguntas&amp;rdquo; a &amp;ldquo;trabajadores digitales que empujan tareas&amp;rdquo;.&lt;/p&gt;
&lt;p&gt;Vistos en línea temporal, los AI Agents pasaron por unas cinco generaciones. Cada una resolvió una limitación de la anterior y creó nuevas burbujas y nuevos problemas de seguridad.&lt;/p&gt;
&lt;h2 id=&#34;resumen-cinco-generaciones-de-agents&#34;&gt;Resumen: cinco generaciones de Agents
&lt;/h2&gt;&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;Etapa&lt;/th&gt;
          &lt;th&gt;Tiempo&lt;/th&gt;
          &lt;th&gt;Palabra clave&lt;/th&gt;
          &lt;th&gt;Cambio de capacidad&lt;/th&gt;
          &lt;th&gt;Problema central&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;Generación 0&lt;/td&gt;
          &lt;td&gt;Finales de 2022 - inicio de 2023&lt;/td&gt;
          &lt;td&gt;Chat&lt;/td&gt;
          &lt;td&gt;Genera texto, pero no actúa&lt;/td&gt;
          &lt;td&gt;El modelo está separado del mundo real&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;Generación 1&lt;/td&gt;
          &lt;td&gt;Mitad de 2023 - final de 2023&lt;/td&gt;
          &lt;td&gt;Tool calling&lt;/td&gt;
          &lt;td&gt;Produce llamadas estructuradas, conecta API y RAG&lt;/td&gt;
          &lt;td&gt;Ejecución abierta y pérdida de dirección&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;Generación 2&lt;/td&gt;
          &lt;td&gt;Finales de 2023 - 2024&lt;/td&gt;
          &lt;td&gt;Workflows de ingeniería&lt;/td&gt;
          &lt;td&gt;Planificación, estado, reflexión y multi-agent&lt;/td&gt;
          &lt;td&gt;Workflows fáciles de copiar&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;Generación 3&lt;/td&gt;
          &lt;td&gt;2024 - 2025&lt;/td&gt;
          &lt;td&gt;Computer Use&lt;/td&gt;
          &lt;td&gt;Ve pantallas y opera GUI&lt;/td&gt;
          &lt;td&gt;Permisos, seguridad y errores de operación&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;Generación 4&lt;/td&gt;
          &lt;td&gt;2025 - 2026&lt;/td&gt;
          &lt;td&gt;MCP / Skills / persistencia&lt;/td&gt;
          &lt;td&gt;Red de herramientas, contexto largo y skills&lt;/td&gt;
          &lt;td&gt;La ejecución persistente amplía el riesgo&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;Generación 5&lt;/td&gt;
          &lt;td&gt;Después de 2026&lt;/td&gt;
          &lt;td&gt;Loops y world models&lt;/td&gt;
          &lt;td&gt;Más memoria, validación y acción física&lt;/td&gt;
          &lt;td&gt;Gobernanza más difícil&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;finales-de-2022-generación-0-la-era-del-chat-de-chatgpt&#34;&gt;Finales de 2022: Generación 0, la era del chat de ChatGPT
&lt;/h2&gt;&lt;p&gt;La Generación 0 empieza con el lanzamiento de ChatGPT el 30 de noviembre de 2022.&lt;/p&gt;
&lt;p&gt;Todavía no era un Agent real. Tenía gran capacidad de lenguaje, pero estaba encerrado en una ventana de chat. Podía escribir Python, pero no ejecutarlo en tu ordenador. Podía planificar un viaje, pero no comprar billetes. Podía explicar cómo editar un archivo, pero no entrar en el sistema de archivos y modificarlo.&lt;/p&gt;
&lt;p&gt;Sus límites eran claros:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;entender lenguaje natural;&lt;/li&gt;
&lt;li&gt;generar artículos, respuestas, código y planes;&lt;/li&gt;
&lt;li&gt;no acceder por sí mismo a datos recientes;&lt;/li&gt;
&lt;li&gt;no leer de forma estable documentos internos de empresa;&lt;/li&gt;
&lt;li&gt;no ejecutar acciones externas;&lt;/li&gt;
&lt;li&gt;no gestionar estado de tareas largas.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;El problema central era la desconexión entre capacidad del modelo y mundo real. Podía pensar y hablar, pero no actuar.&lt;/p&gt;
&lt;p&gt;Esta etapa también creó la primera burbuja: prompt engineers, mercados de plantillas, cursos y certificaciones. Los modelos tempranos sí eran sensibles al prompt, pero el mercado confundió un parche temporal con una ventaja duradera.&lt;/p&gt;
&lt;p&gt;Con modelos tipo GPT-4, system prompts, function calling y mejores valores por defecto, muchas plantillas perdieron escasez. El patrón se repitió después: una nueva capacidad crea una capa intermedia; la siguiente generación la incorpora; la capa intermedia desaparece.&lt;/p&gt;
&lt;h2 id=&#34;mitad-de-2023-generación-1-despierta-el-tool-calling&#34;&gt;Mitad de 2023: Generación 1, despierta el tool calling
&lt;/h2&gt;&lt;p&gt;La palabra clave de la Generación 1 es tool calling.&lt;/p&gt;
&lt;p&gt;En junio de 2023, OpenAI lanzó &lt;code&gt;function calling&lt;/code&gt;. Los desarrolladores podían describir nombres de funciones, usos, tipos de parámetros y &lt;code&gt;JSON Schema&lt;/code&gt;. Tras entender la petición del usuario, el modelo podía devolver una llamada JSON estructurada, que un sistema externo ejecutaba.&lt;/p&gt;
&lt;p&gt;El cambio arquitectónico fue enorme: el modelo pasó de ser un cerebro que solo habla a un cerebro que puede mover herramientas externas.&lt;/p&gt;
&lt;p&gt;Capacidades clave:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;elegir herramientas según la intención;&lt;/li&gt;
&lt;li&gt;producir argumentos estructurados;&lt;/li&gt;
&lt;li&gt;llamar API externas;&lt;/li&gt;
&lt;li&gt;devolver resultados al modelo para seguir razonando;&lt;/li&gt;
&lt;li&gt;usar RAG para acceder a conocimiento externo;&lt;/li&gt;
&lt;li&gt;formar personas tempranas con plugins y bases de conocimiento.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Al mismo tiempo, &lt;code&gt;RAG&lt;/code&gt; y las bases vectoriales se volvieron populares. Resolvieron el problema de información reciente, material privado e información interna. El sistema recupera fragmentos relevantes, los inyecta en el contexto y el modelo responde a partir de ellos.&lt;/p&gt;
&lt;p&gt;La estructura básica del Agent quedó así:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;quién eres: system prompt y persona;&lt;/li&gt;
&lt;li&gt;qué sabes: base de conocimiento, RAG, documentos privados;&lt;/li&gt;
&lt;li&gt;qué puedes hacer: function calling, plugins, API externas.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;La burbuja más visible fue AutoGPT. La idea era atractiva: el usuario da un objetivo amplio, y la IA descompone tareas, busca, escribe archivos, evalúa, itera y se detiene cuando cree haber terminado.&lt;/p&gt;
&lt;p&gt;Pero AutoGPT mostró pronto sus fallos. Le faltaban restricciones de estado, condiciones de parada y feedback fiable. Las tareas se desviaban, las API se llamaban con argumentos erróneos y los costes podían dispararse. La lección fue clara: herramientas más bucles infinitos no hacen un Agent de producción.&lt;/p&gt;
&lt;h2 id=&#34;finales-de-2023-a-2024-generación-2-workflows-de-ingeniería&#34;&gt;Finales de 2023 a 2024: Generación 2, workflows de ingeniería
&lt;/h2&gt;&lt;p&gt;El fracaso de AutoGPT enseñó que no basta con dejar improvisar al modelo. Las tareas complejas necesitan proceso.&lt;/p&gt;
&lt;p&gt;La Generación 2 trata de workflows de ingeniería. El Agent deja de ser una llamada al modelo y se convierte en un sistema con estado, control de flujo y evaluación.&lt;/p&gt;
&lt;p&gt;Capacidades clave:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;planificación: dividir objetivos grandes en pasos;&lt;/li&gt;
&lt;li&gt;gestión de estado: saber por dónde va la tarea;&lt;/li&gt;
&lt;li&gt;reflexión y revisión: generar, evaluar y corregir;&lt;/li&gt;
&lt;li&gt;orquestación de herramientas;&lt;/li&gt;
&lt;li&gt;intervención humana en puntos críticos;&lt;/li&gt;
&lt;li&gt;colaboración multi-agent.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;El patrón típico es &lt;code&gt;ReAct&lt;/code&gt;, o &lt;code&gt;Reasoning + Acting&lt;/code&gt;. El modelo razona, llama una herramienta, observa el resultado y razona otra vez. Así cada paso tiene lógica auditable y feedback.&lt;/p&gt;
&lt;p&gt;La Generación 2 puso la capacidad del modelo dentro de un proceso controlable. Un buen workflow puede producir resultados más estables que una única llamada a un modelo grande.&lt;/p&gt;
&lt;p&gt;También apareció la burbuja de plataformas low-code para Agents. Interfaces visuales permitían combinar prompt, RAG, plugins y flujos. Bajaban la barrera de construcción, pero si un workflow puede copiarse barato, la plataforma tiene poco moat.&lt;/p&gt;
&lt;p&gt;Capturar demanda temprana no equivale a tener una defensa duradera.&lt;/p&gt;
&lt;h2 id=&#34;2024-a-2025-generación-3-computer-use-entra-en-interfaces-reales&#34;&gt;2024 a 2025: Generación 3, Computer Use entra en interfaces reales
&lt;/h2&gt;&lt;p&gt;La palabra clave de la Generación 3 es &lt;code&gt;Computer Use&lt;/code&gt;.&lt;/p&gt;
&lt;p&gt;Antes, el tool calling dependía de API. Lo que el Agent podía hacer dependía de lo que alguien hubiera conectado. Pero muchas aplicaciones reales no tienen API limpias, abiertas o completas.&lt;/p&gt;
&lt;p&gt;Computer Use permite al modelo ver pantallas, hacer clic y operar GUI. La interfaz general del ordenador se convierte en herramienta.&lt;/p&gt;
&lt;p&gt;Capacidades clave:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;reconocer contenido en pantalla;&lt;/li&gt;
&lt;li&gt;hacer clic, escribir texto y cambiar ventanas;&lt;/li&gt;
&lt;li&gt;operar web y software de escritorio;&lt;/li&gt;
&lt;li&gt;leer repositorios, editar archivos y ejecutar pruebas;&lt;/li&gt;
&lt;li&gt;revisar terminal y errores;&lt;/li&gt;
&lt;li&gt;acercarse a un asistente de ingeniería real.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Esto empujó al Agent de &amp;ldquo;usar herramientas conectadas&amp;rdquo; a &amp;ldquo;operar software como una persona&amp;rdquo;. También acercó los coding agents al flujo real: leer proyecto, cambiar código, correr pruebas y corregir por errores.&lt;/p&gt;
&lt;p&gt;Pero la frontera de confianza creció. Si la IA opera un ordenador, puede hacer clic mal, borrar archivos, enviar formularios o ser manipulada por texto de páginas, documentos o interfaces. Prompt injection pasa a ser un problema de archivos, permisos y seguridad del sistema.&lt;/p&gt;
&lt;p&gt;La lección de la Generación 3: cuanto más cerca esté el Agent de operaciones reales, más necesita sandbox, aprobaciones, rollback y mínimo privilegio.&lt;/p&gt;
&lt;h2 id=&#34;2025-a-2026-generación-4-mcp-skills-y-trabajadores-digitales-persistentes&#34;&gt;2025 a 2026: Generación 4, MCP, Skills y trabajadores digitales persistentes
&lt;/h2&gt;&lt;p&gt;La Generación 4 se centra en persistencia, conexión, memoria y especialización.&lt;/p&gt;
&lt;p&gt;El foco ya no es solo hacer mejor una tarea aislada. Los Agents empiezan a tener contexto a largo plazo, red de herramientas, skills profesionales y sentido del tiempo. Se parecen menos a un asistente de una conversación y más a un trabajador digital continuo.&lt;/p&gt;
&lt;p&gt;&lt;code&gt;MCP&lt;/code&gt; resuelve la conexión de herramientas. Permite conectar sistemas de archivos, bases de datos, navegadores, herramientas de diseño, gestión de proyectos y sistemas empresariales de forma más estándar. Cuando el protocolo se estabiliza, muchas capas intermedias de conexión se comprimen.&lt;/p&gt;
&lt;p&gt;&lt;code&gt;Skills&lt;/code&gt; resuelve el método profesional. Las herramientas dicen qué puede hacer el Agent; las skills dicen cómo debe hacerlo. Una buena skill no es solo un prompt: empaqueta flujo de dominio, restricciones, checks, errores comunes y orden de herramientas.&lt;/p&gt;
&lt;p&gt;Capacidades clave:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;memoria a largo plazo: preferencias, reglas de proyecto e historial;&lt;/li&gt;
&lt;li&gt;contexto de proyecto: repositorios, documentación y normas;&lt;/li&gt;
&lt;li&gt;red de herramientas: MCP, API, navegador y sistema de archivos;&lt;/li&gt;
&lt;li&gt;skills profesionales: métodos de tarea empaquetados;&lt;/li&gt;
&lt;li&gt;ejecución persistente: esperar, despertar, recordar y seguir;&lt;/li&gt;
&lt;li&gt;colaboración remota: aprobar y ajustar desde otros dispositivos.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Esta generación empieza a tener sensación de empleado: identidad, límites de responsabilidad, contexto largo, método profesional, sentido del tiempo, permisos de herramientas y capacidad de avanzar sin supervisión constante.&lt;/p&gt;
&lt;p&gt;Pero cuanto más se parece a un empleado, más se parece su radio de riesgo. Ejecución persistente, datos locales, secretos, llamadas a herramientas y tareas reales convierten la seguridad en un asunto central.&lt;/p&gt;
&lt;p&gt;Hay un punto especialmente importante: el texto también es superficie de ataque. Si un Agent lee y obedece Markdown, documentación, skill packs o páginas web, texto malicioso puede cambiar su conducta. Prompt injection se vuelve problema de supply chain, permisos y ejecución.&lt;/p&gt;
&lt;p&gt;La lección de la Generación 4: los Agents persistentes necesitan gobernanza, no solo capacidad.&lt;/p&gt;
&lt;h2 id=&#34;después-de-2026-generación-5-loops-memoria-interna-y-world-models&#34;&gt;Después de 2026: Generación 5, loops, memoria interna y world models
&lt;/h2&gt;&lt;p&gt;La Generación 5 todavía no es historia cerrada. Es una extrapolación de los cuatro años anteriores.&lt;/p&gt;
&lt;p&gt;Un Agent maduro necesita al menos tres loops:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;loop de ejecución: verificar tras cada acción, hacer rollback, corregir y reintentar;&lt;/li&gt;
&lt;li&gt;loop temporal: seguir objetivos largos entre varios ciclos de activación;&lt;/li&gt;
&lt;li&gt;loop cognitivo: distinguir información segura, suposiciones e información caducada.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;La segunda dirección es memoria interna. Hasta ahora, gran parte de la memoria está fuera del modelo: RAG, vectores, historial, archivos locales, &lt;code&gt;memory.md&lt;/code&gt;. Si los modelos futuros soportan estado persistente entre sesiones, la memoria de los Agents se rediseñará.&lt;/p&gt;
&lt;p&gt;La tercera dirección son los world models. Muchos Agents actuales son reactivos: observar, responder, volver a observar. Las tareas de alto riesgo necesitan simular consecuencias antes de actuar.&lt;/p&gt;
&lt;p&gt;La cuarta dirección es embodiment. Las generaciones anteriores vivían sobre todo en espacio digital: API, pantallas, archivos, navegador, herramientas empresariales. El siguiente paso puede llevar la acción a robots, dispositivos, sistemas industriales e interfaces físicas.&lt;/p&gt;
&lt;p&gt;La Generación 5 tendrá que resolver cómo ejecutar tareas, entender consecuencias, gestionar estado largo y mantenerse fiable en un radio de riesgo mayor.&lt;/p&gt;
&lt;h2 id=&#34;seis-reglas-detrás-de-la-línea-temporal&#34;&gt;Seis reglas detrás de la línea temporal
&lt;/h2&gt;&lt;p&gt;Primera: la capacidad del modelo base sigue siendo el techo. Un Agent no es magia fuera del modelo, sino capacidad del modelo liberada mediante ingeniería.&lt;/p&gt;
&lt;p&gt;Segunda: la arquitectura de ingeniería amplifica el modelo. Planificación, verificación, reflexión, corrección, evaluación y permisos se acercan más a resultados entregables que una generación única.&lt;/p&gt;
&lt;p&gt;Tercera: los protocolos abiertos redistribuyen valor. Cuando MCP, Skills y contexto de proyecto se estabilizan, la competencia pasa de conectar herramientas a acumular capacidad real de dominio.&lt;/p&gt;
&lt;p&gt;Cuarta: la línea oculta es la ampliación de la confianza humano-máquina. Texto, API, workflows, ordenador y ejecución persistente amplían cada vez más el radio de riesgo.&lt;/p&gt;
&lt;p&gt;Quinta: cada accidente se convierte en regla para la siguiente generación. Los bucles de AutoGPT empujaron la orquestación; los fallos de vibe coding empujaron evaluación; los borrados en producción empujaron permisos mínimos y sandbox.&lt;/p&gt;
&lt;p&gt;Sexta: el ecosistema Agent alterna explosión y extinción. Las nuevas capacidades crean capas temporales; los modelos o plataformas las incorporan después. Confundir una ventana temporal con un moat es peligroso.&lt;/p&gt;
&lt;h2 id=&#34;el-moat-real&#34;&gt;El moat real
&lt;/h2&gt;&lt;p&gt;El moat real en AI Agents no es empaquetar primero una nueva capacidad.&lt;/p&gt;
&lt;p&gt;Hay tres moats más fiables.&lt;/p&gt;
&lt;p&gt;Primero, profundidad vertical. ¿Entiendes de verdad el flujo, riesgos, excepciones y responsabilidades de una industria?&lt;/p&gt;
&lt;p&gt;Segundo, data flywheel. ¿Puedes acumular feedback real de alta calidad y mejorar procesos, evaluación, fine-tuning y decisiones de producto?&lt;/p&gt;
&lt;p&gt;Tercero, confianza del usuario. ¿Te entregan trabajo de más valor, más largo y más riesgoso, o solo te usan como herramienta puntual?&lt;/p&gt;
&lt;p&gt;Cuando una plataforma o modelo base absorbe una capacidad, los productos que aún conservan procesos, feedback, límites de responsabilidad y confianza tienen más probabilidades de sobrevivir.&lt;/p&gt;
&lt;h2 id=&#34;cierre&#34;&gt;Cierre
&lt;/h2&gt;&lt;p&gt;De 2022 a 2026, la evolución de AI Agents no fue &amp;ldquo;modelos que chatean mejor&amp;rdquo;. Fue &amp;ldquo;humanos dispuestos a entregar más trabajo a la IA&amp;rdquo;.&lt;/p&gt;
&lt;p&gt;Un Agent maduro no es el sistema que más se atreve a ejecutar. Es el sistema que sabe cuándo ejecutar, cuándo verificar, cuándo pausar y cuándo pedir confirmación humana.&lt;/p&gt;
&lt;p&gt;Para juzgar si un producto Agent tiene valor a largo plazo, pregunta: cuando el próximo modelo o plataforma incorpore esta capacidad, ¿qué queda?&lt;/p&gt;
&lt;p&gt;Si la respuesta es proceso de dominio, datos reales, resultados verificables y confianza del usuario, puede haber valor duradero.&lt;/p&gt;
</description>
        </item>
        
    </channel>
</rss>
