Términos de AI explicados: Agent, MCP, RAG y Token en lenguaje simple

Guía en lenguaje simple de 10 términos comunes de AI, incluidos Agent, Skills, MCP, API, RAG, AIGC y Token, para ayudar a principiantes a construir un marco básico para entender conversaciones cotidianas sobre AI.

Cuando la gente empieza con AI, lo que suele alejarla no son los modelos en sí, sino la larga lista de términos que aparecen en cada discusión. Agent, MCP, RAG, AIGC y Token suenan familiares, pero sin una explicación simple muchas personas solo reconocen las palabras sin entenderlas de verdad.

Este artículo condensa 10 términos frecuentes de AI en significados más fáciles de recordar. El objetivo no es sonar académico, sino ayudarte a construir un modelo mental básico para seguir conversaciones cotidianas sobre AI.

10 términos comunes de AI y qué significan

1. Agent: una AI que hace más que chatear

Agent puede entenderse como un asistente AI que realmente hace trabajo.

Un chatbot normal suele seguir un patrón de pregunta y respuesta. Un Agent va más lejos: puede dividir una tarea en pasos, organizar un proceso, llamar herramientas y devolver un resultado terminado. Si le pides organizar materiales, buscar algo o generar un documento, quizá no solo dé consejos, sino que encadene acciones y las complete.

Por eso el punto clave de un Agent no es si puede hablar, sino si puede actuar.

2. OpenClaw: un asistente AI que vive en tu ordenador

Aquí, OpenClaw se describe como un tipo de asistente AI que vive en tu ordenador.

Puedes pensar en esta herramienta como un ayudante AI más orientado al escritorio. No solo recibe texto. También puede observar la interfaz, llamar herramientas locales y ejecutar tareas paso a paso. Frente a un chat web normal, enfatiza mucho más la capacidad operativa.

Si Agent es la idea abstracta de una AI orientada a ejecución, este tipo de asistente de escritorio es una versión concreta para ordenador personal.

3. Skills: paquetes de capacidad añadidos a un Agent

Skills pueden entenderse como módulos funcionales o instrucciones operativas para un Agent.

El mismo Agent puede comportarse muy distinto según las Skills que tenga. Algunas se centran en copywriting, otras en organizar datos y otras en código. Son un poco como apps en un teléfono y un poco como workflows reutilizables.

En muchos casos no es que el modelo se vuelva más inteligente de repente. Es que se añadieron reglas, herramientas y pasos más claros detrás.

4. MCP: una forma unificada para conectar AI con herramientas

MCP significa Model Context Protocol.

En términos cotidianos, es un poco como un conector Type-C para el mundo AI. Antes, conectar un modelo a distintas herramientas solía exigir integraciones separadas una por una. Con un protocolo unificado, la forma de conectar herramientas se vuelve más estándar y reutilizable.

Para la mayoría de usuarios, lo importante es recordar esto: MCP no trata de si un modelo puede responder una pregunta. Trata de cómo un modelo puede conectarse a herramientas y recursos externos de forma segura y estable.

5. Gacha: la salida AI es inherentemente aleatoria

El término “gacha” aparece a menudo en generación de imágenes, video y trabajo creativo con AI.

La idea es simple. Incluso con el mismo prompt y la misma dirección general, el resultado puede cambiar cada vez. A veces sale genial. A veces se rompe. Por eso se compara repetir generaciones con tirar gacha en un juego.

Esto recuerda que la generación AI no es una fórmula fija, sino un proceso probabilístico con variación.

6. API: la conexión entre una app y un modelo

API significa Application Programming Interface.

Puedes pensarla como el punto de entrada estándar por el que los programas se comunican. Cuando llamas un servicio de modelo desde tu app, script o editor, usas una API para enviar una solicitud y recibir un resultado.

Si comparas un servicio de modelo con un restaurante:

  • el menú es como la documentación de API
  • hacer un pedido es como una solicitud API
  • la cocina devolviendo el plato es como el modelo devolviendo resultado

Por eso muchas herramientas pueden verse distintas en superficie y aun así llamar alguna API por debajo.

7. Multimodalidad: AI maneja más que texto

Multimodality significa que AI ya no solo lee y escribe texto. Puede procesar varios tipos de entrada y salida.

Por ejemplo, puede leer imágenes, entender voz, interpretar video, generar dibujos o soportar interacción de voz y video en tiempo real. Frente a los primeros modelos solo texto, los modelos multimodales se acercan más a combinar ver, oír, hablar y escribir.

Por eso muchos productos AI ya no giran alrededor de una sola caja de texto.

8. RAG: recuperar información primero y luego generar respuesta

RAG significa Retrieval-Augmented Generation.

Sirve para resolver un problema práctico: los datos de entrenamiento de un modelo tienen un límite temporal y no conoce automáticamente los documentos nuevos de tu empresa, registros de soporte o reglas de negocio. La idea de RAG es recuperar primero material relevante de fuentes específicas y luego generar una respuesta basada en ese material.

Su valor aparece en tres formas:

  • las respuestas se mantienen más cerca del material fuente real
  • puedes rastrear de dónde salió la respuesta
  • documentos nuevos pueden añadirse y reflejarse rápido

Por eso muchas bases de conocimiento empresariales, sistemas de atención AI y herramientas internas de Q&A dependen de RAG.

9. AIGC: término general para contenido generado por AI

AIGC significa AI Generated Content.

No es una herramienta concreta. Es una etiqueta amplia para contenido producido por AI: texto, imágenes, audio, video y más. Escritura AI, ilustración AI, generación de video corto y síntesis de voz AI entran bajo AIGC.

Lo importante es que describe una forma de producir contenido, no un modelo específico.

10. Token: la unidad usada para medir procesamiento del modelo

Token puede entenderse como la unidad básica que un modelo usa para procesar texto.

No equivale exactamente a un carácter o una palabra, pero en la práctica puedes tratarlo como la unidad común para cómputo y facturación del modelo. Tu entrada consume Token, la salida del modelo consume Token y el contexto guardado en memoria también ocupa Token.

Por eso los servicios de modelos hablan tanto de longitud de contexto, control de coste y compresión de prompts. En el fondo, todo eso está ligado a Token.

记录并分享
Creado con Hugo
Tema Stack diseñado por Jimmy