Cómo construir un Agente de IA en n8n
con LangChain 2026

Los nodos de Agente de IA nativos de n8n, impulsados por el framework LangChain, te permiten construir sistemas de IA autónomos que razonan a través de problemas, usan herramientas y completan tareas de varios pasos, todo sin escribir una sola línea de Python. Ya sea que quieras un agente de soporte al cliente que consulte tu CRM, un agente de investigación que busque en la web o un asistente de codificación que ejecute código, el enfoque visual de n8n lo hace sorprendentemente accesible. Esta guía cubre cada capa: modelos, memoria, herramientas y un ejemplo completo de agente del mundo real.

Qué construirás

Al final de esta guía, tendrás un Agente de IA de Soporte al Cliente funcional que recibe mensajes a través de webhook, verifica el estado del pedido a través de la herramienta HTTP Request, busca en una base de conocimientos, redacta respuestas profesionales y recuerda el contexto de la conversación en múltiples turnos.

Agentes de IA vs. Cadenas Simples: La Diferencia Clave

Antes de construir, vale la pena entender qué hace que un agente sea diferente de un nodo LLM regular o una cadena simple:

ConceptoLlamada LLM SimpleCadenaAgente de IA
Toma de decisionesNingunaPasos fijosRazonamiento dinámico
Uso de herramientasNingunaPredefinidoElige herramientas autónomamente
MemoriaNingunaOpcionalIntegrada con contexto
IteraciónLlamada únicaPaso únicoBucles hasta alcanzar el objetivo
ComplejidadBajaMediaAlta
Costo por ejecuciónBajoMedioMás alto (múltiples llamadas LLM)

Un agente usa un bucle ReAct (Razonar + Actuar): el LLM piensa qué hacer, llama a una herramienta, observa el resultado, razona de nuevo y repite hasta que alcanza una respuesta final. Esto hace que los agentes sean mucho más capaces que las cadenas simples para tareas abiertas.

Descripción General de los Nodos LangChain

n8n expone LangChain a través de un conjunto de categorías de nodos especializados. Entender el ecosistema antes de construir ahorra tiempo:

AI Agent
@n8n/n8n-nodes-langchain.agent
El orquestador. Se conecta a un modelo de chat, memoria y herramientas. Ejecuta el bucle de razonamiento ReAct.
Chat OpenAI
@n8n/n8n-nodes-langchain.lmChatOpenAi
Se conecta a GPT-4o, GPT-4-turbo, GPT-3.5-turbo. Establece la temperatura, los tokens máximos y el modelo.
Chat Anthropic
@n8n/n8n-nodes-langchain.lmChatAnthropic
Claude 3.5 Sonnet, Claude 3 Opus. Excelente para contextos largos y razonamiento matizado.
Chat Google Gemini
@n8n/n8n-nodes-langchain.lmChatGoogleGemini
Gemini 1.5 Pro y Flash. Lo mejor para tareas multimodales e integraciones de Google Workspace.
Buffer Window Memory
@n8n/n8n-nodes-langchain.memoryBufferWindow
Mantiene los últimos N turnos de conversación en la memoria. La opción de memoria más barata para el chat de varios turnos.
Postgres Chat Memory
@n8n/n8n-nodes-langchain.memoryPostgresChat
Persiste el historial de conversación en PostgreSQL. Sobrevive a los reinicios. Necesario para agentes de producción.
HTTP Request Tool
@n8n/n8n-nodes-langchain.toolHttpRequest
Le da al agente la capacidad de llamar a cualquier API REST. Describe la API y deja que el agente decida cuándo usarla.
Code Tool
@n8n/n8n-nodes-langchain.toolCode
Ejecuta código JavaScript o Python dinámicamente. El agente escribe y ejecuta código para procesar datos.
Wikipedia Tool
@n8n/n8n-nodes-langchain.toolWikipedia
Herramienta de un clic para buscar en Wikipedia. No se requiere clave API. Ideal para agentes de investigación factual.
Vector Store Tool
@n8n/n8n-nodes-langchain.toolVectorStore
Búsqueda semántica sobre tus documentos. Conecta Pinecone, Supabase, Qdrant o Postgres PGVector.

Configurando el Nodo AI Agent

Crea un nuevo flujo de trabajo y agrega un nodo AI Agent. Este es tu centro de orquestación: todo lo demás se conecta a él como subnodos.

Selección del tipo de agente

El nodo AI Agent ofrece varios tipos de agentes. Para la mayoría de los casos de uso, elige Tools Agent: utiliza la API moderna de llamada a funciones compatible con GPT-4, Claude 3 y Gemini 1.5, que es más confiable y rápida que el enfoque anterior de análisis de texto ReAct.

Tipo de AgenteMejor ParaCaracterística del Modelo Requerida
Tools AgentLa mayoría de los casos de uso, agentes de producciónLlamada a función / uso de herramientas
ReAct AgentModelos sin llamada a funciónBuen seguimiento de instrucciones
Plan and ExecuteTareas complejas de varios pasosRazonamiento fuerte
SQL AgentLenguaje natural a consultas SQLLlamada a función
Conversational AgentChatbots con memoriaLlamada a función

Mensaje del sistema (prompt)

El mensaje del sistema define la personalidad, las capacidades y las limitaciones de tu agente. Esta es la configuración más impactante que controlas:

Eres un agente de soporte al cliente útil para Acme Corp, una tienda de comercio electrónico. Tus capacidades: - Buscar el estado del pedido usando la herramienta "Verificar el estado del pedido" (requiere el ID del pedido) - Buscar en la base de conocimientos información y políticas del producto - Redactar respuestas profesionales y empáticas Reglas: - Siempre saluda al cliente por su nombre si está disponible - Nunca inventes detalles del pedido: siempre usa la herramienta para verificar - Si no puedes resolver un problema, escálalo: "Te conectaré con un especialista" - Mantén las respuestas por debajo de las 150 palabras a menos que expliques una política compleja - Fecha de hoy: {{ $now.toISODate() }}
Consejo de Ingeniería de Prompts

Usa restricciones negativas ("Nunca inventes...") junto con instrucciones positivas. Los LLM responden bien a los límites claros. También incluye contexto dinámico como la fecha actual a través de expresiones n8n: el agente usa esto para el razonamiento sensible al tiempo.

Conectando Modelos de Lenguaje

El subnodo Chat Model proporciona la inteligencia. Conéctalo a la entrada "Chat Model" del AI Agent. Aquí te mostramos cómo configurar cada proveedor principal:

OpenAI GPT-4o (recomendado para la mayoría de los casos)

Nodo: Chat OpenAI Modelo: gpt-4o Temperatura: 0.3 # Más bajo = más determinista, mejor para tareas factuales Tokens Máximos: 1000 Tiempo de Espera: 60000 # ms — aumentar para tareas de razonamiento complejas # Credencial: clave API de OpenAI # Costo: ~$5 por 1M de tokens de entrada, ~$15 por 1M de tokens de salida

Anthropic Claude 3.5 Sonnet (mejor para texto matizado)

Nodo: Chat Anthropic Modelo: claude-3-5-sonnet-20241022 Temperatura: 0.2 Tokens Máximos: 2000 # Claude sobresale en: seguir instrucciones complejas, documentos largos, # escritura matizada y evitar alucinaciones en consultas ambiguas

Google Gemini 1.5 Flash (mejor precio/rendimiento)

Nodo: Chat Google Gemini Modelo: gemini-1.5-flash Temperatura: 0.4 # Gemini Flash es extremadamente rápido y barato: ideal para agentes de alto volumen # Gemini 1.5 Pro tiene una ventana de contexto de 1M de tokens para documentos muy largos

Agregando Memoria a Tu Agente

Sin memoria, cada mensaje comienza una conversación nueva: el agente olvida todo lo dicho antes. Los nodos de memoria resuelven esto manteniendo el historial de la conversación.

Buffer Window Memory (en memoria)

Esto almacena los últimos N turnos de conversación en la RAM. Es sencillo de configurar, pero no es persistente entre los reinicios de n8n:

Nodo: Buffer Window Memory ID de Sesión: ={{ $json.sessionId }} # Único por usuario/conversación Longitud de la Ventana de Contexto: 10 # Mantener los últimos 10 mensajes

El ID de sesión es crítico: aísla la memoria entre diferentes usuarios. Pasa un identificador único desde tu disparador (ID de usuario, ID de conversación, correo electrónico) y asegúrate de que el mismo ID se pase en cada turno de la conversación.

PostgreSQL Chat Memory (producción)

Para agentes de producción que deben sobrevivir a los reinicios y servir a múltiples usuarios de manera confiable:

Nodo: Postgres Chat Memory Credencial: your-postgres-connection ID de Sesión: ={{ $json.userId }} Nombre de la Tabla: n8n_chat_histories # Se crea automáticamente en el primer uso Longitud de la Ventana de Contexto: 20 # Para borrar la memoria de una sesión (por ejemplo, después de que se resuelva el ticket): # DELETE FROM n8n_chat_histories WHERE session_id = 'user-123';

Agregando Herramientas: El Poder de los Flujos de Trabajo Agénticos

Las herramientas son lo que hace que los agentes sean genuinamente útiles. Cada subnodo de herramienta se conecta a la entrada "Tools" del AI Agent. El agente decide autónomamente qué herramientas usar y cuándo, basándose en el mensaje del usuario y su razonamiento.

Herramienta 1: HTTP Request Tool (llama a tus APIs)

Nodo: HTTP Request Tool Nombre: Verificar el Estado del Pedido Descripción: Buscar el estado de un pedido de cliente. Usar cuando el cliente menciona un ID de pedido o pregunta sobre la entrega. Entrada: order_id (cadena, por ejemplo, "ORD-12345") Método: GET URL: https://api.yourstore.com/orders/{order_id} Autenticación: Header Auth (token Bearer) # La descripción es lo que el LLM lee para decidir cuándo usar esta herramienta # Sé específico sobre las entradas: el agente las extrae de la conversación

Herramienta 2: Code Tool (cálculo dinámico)

La Code Tool permite al agente escribir y ejecutar JavaScript para procesar datos, hacer cálculos o transformar respuestas:

Nodo: Code Tool Nombre: Calcular el Monto del Reembolso Descripción: Calcular el monto del reembolso para una devolución parcial. Entrada: original_price (número), items_returned (número), total_items (número) // Código (el agente proporciona los valores de entrada): const { original_price, items_returned, total_items } = query; const refund = (original_price / total_items) * items_returned; return { refund_amount: refund.toFixed(2), currency: 'USD' };

Herramienta 3: Wikipedia Tool (conocimiento factual)

Nodo: Wikipedia # No se necesita configuración: colócalo y conéctalo al agente # El agente lo usa automáticamente cuando necesita información factual # Funciona buscando en Wikipedia y devolviendo el resumen del artículo

Herramienta 4: Herramienta de Flujo de Trabajo n8n Personalizado

Puedes llamar a un flujo de trabajo secundario completo de n8n como una herramienta: esto es poderoso para operaciones complejas:

Nodo: Call n8n Workflow Tool Nombre: Buscar en la Base de Conocimientos Descripción: Buscar en la base de conocimientos de la empresa documentación del producto, Preguntas frecuentes y políticas. Usar cuando el cliente pregunta sobre cómo funciona algo o cuáles son nuestras políticas. Entrada: search_query (cadena) Flujo de Trabajo: [Selecciona tu subflujo de trabajo que realiza la búsqueda vectorial]

Construyendo un Agente Real: Bot de Soporte al Cliente

Aquí está la estructura completa del flujo de trabajo para un agente de soporte al cliente de producción:

ESTRUCTURA DEL FLUJO DE TRABAJO: 1. Disparador de Webhook ├── Ruta: /support-chat ├── Método: POST └── Cuerpo: { "message": "...", "userId": "...", "sessionId": "..." } 2. Nodo Set (normalizar la entrada) └── chatInput: {{ $json.body.message }} sessionId: {{ $json.body.userId }}-{{ $json.body.sessionId }} 3. Nodo AI Agent ├── Tipo de Agente: Tools Agent ├── Entrada de Chat: {{ $json.chatInput }} ├── Mensaje del Sistema: [ver arriba] │ ├── → [Chat Model] Chat OpenAI (gpt-4o, temp: 0.3) ├── → [Memory] Postgres Chat Memory (session: {{ $json.sessionId }}) ├── → [Tool] HTTP Request - Verificar el Estado del Pedido ├── → [Tool] HTTP Request - Obtener el Perfil del Cliente ├── → [Tool] Call Workflow - Buscar en la Base de Conocimientos └── → [Tool] HTTP Request - Crear Ticket de Soporte 4. Responder al Webhook └── Cuerpo: { "reply": "{{ $json.output }}", "sessionId": "..." }

Manejo de la salida del agente

El nodo AI Agent genera la respuesta final del agente en $json.output. Agrega un nodo Respond to Webhook para devolverlo a la persona que llama:

Nodo: Responder al Webhook Código de Respuesta: 200 Cuerpo de la Respuesta: { "reply": {{ $json.output }}, "sessionId": {{ $('Set Node').item.json.sessionId }}, "timestamp": {{ $now.toISO() }} }

Consejos de Ingeniería de Prompts para Agentes n8n

1. Describe las herramientas con precisión

El LLM lee las descripciones de las herramientas para decidir cuándo y cómo usarlas. Las descripciones vagas conducen a una mala selección de herramientas. Sé explícito sobre: qué hace la herramienta, cuándo usarla y exactamente qué entradas espera.

2. Usa ejemplos de pocos disparos en los prompts del sistema

Ejemplos de interacciones (agregar al mensaje del sistema): Usuario: "¿Dónde está mi pedido ORD-99234?" Pensamiento: Debo verificar el estado del pedido usando el ID del pedido proporcionado. Herramienta: Verificar el Estado del Pedido (order_id: "ORD-99234") Resultado: { status: "enviado", tracking: "1Z999AA10123456784" } Respuesta: "¡Tu pedido ORD-99234 ha sido enviado! Rastrealo aquí: 1Z999AA10123456784" Usuario: "¿Cómo devuelvo un artículo?" Pensamiento: Esta es una pregunta de política. Debo buscar en la base de conocimientos. Herramienta: Buscar en la Base de Conocimientos (query: "política de devoluciones")

3. Controla el razonamiento con la temperatura

  • Temperatura 0.0–0.2: Factual, consistente, mejor para la recuperación de datos y salidas estructuradas
  • Temperatura 0.3–0.5: Equilibrado: bueno para la mayoría de los agentes de soporte
  • Temperatura 0.7–1.0: Creativo, variado: bueno para la generación de contenido, pero evítalo para los agentes que necesitan precisión

4. Limita el número de iteraciones

Establece "Iteraciones Máximas" en el nodo AI Agent para evitar bucles infinitos. Para consultas de soporte simples, 5 iteraciones son suficientes. Para los agentes de investigación que podrían necesitar muchas llamadas a herramientas, usa 10–15.

Alerta de Costo

Cada llamada a la herramienta implica al menos una llamada API LLM adicional. Un agente con 3 herramientas podría realizar entre 4 y 6 llamadas API por mensaje de usuario. Supervisa cuidadosamente el uso de tu API en producción: establece límites de gasto en tu panel de control de OpenAI/Anthropic y usa modelos más baratos (GPT-4o mini, Claude Haiku) para agentes de alto volumen.

Depurando Agentes de IA en n8n

Los agentes son más difíciles de depurar que los flujos de trabajo simples porque el razonamiento ocurre dentro del LLM. Usa estas técnicas:

Habilita el registro detallado

# Agrega a tu .env para ver la cadena ReAct completa en los registros de n8n N8N_LOG_LEVEL=debug LANGCHAIN_VERBOSE=true

Usa el historial de ejecución

En el editor de n8n, haz clic en cualquier ejecución pasada para ver exactamente qué herramientas llamó el agente, qué entradas pasó y qué recibió a cambio. Esto revela errores de configuración al instante; por ejemplo, si el agente está llamando a la herramienta incorrecta o pasando parámetros mal formados.

Prueba con datos anclados

Ancla un mensaje de prueba en tu disparador de webhook y ejecuta el agente manualmente. Cambia el prompt del sistema, el modelo o las descripciones de las herramientas de forma iterativa hasta que el agente se comporte correctamente. Solo entonces activa el webhook en vivo.

Preguntas Frecuentes

¿Puedo usar modelos Ollama locales en lugar de OpenAI?
Sí. n8n admite Ollama a través del nodo "Ollama Chat Model". Sin embargo, la mayoría de los modelos locales no admiten la llamada a funciones (requerida para Tools Agent). Usa el tipo ReAct Agent con Ollama y prueba con modelos como llama3.1, mistral-nemo o qwen2.5 que tengan una capacidad razonable de seguimiento de instrucciones. La calidad será inferior a la de GPT-4 para tareas de razonamiento complejas.
¿Cómo comparto el estado entre las llamadas a herramientas dentro de una ejecución del agente?
El agente naturalmente pasa los resultados de la herramienta de vuelta al contexto LLM, por lo que cada llamada a la herramienta posterior puede hacer referencia a resultados anteriores. Para un estado más complejo, usa la Code Tool para construir un objeto de estado y pasarlo explícitamente en las descripciones de herramientas posteriores.
¿Cuál es la diferencia entre Buffer Memory y Postgres Memory?
Buffer Window Memory está en la RAM y desaparece cuando se reinicia n8n. Postgres Chat Memory persiste en una base de datos. Usa Buffer para la creación de prototipos o agentes de sesión única, y Postgres para chatbots de producción multiusuario que necesitan mantener el contexto de la conversación durante días.
¿Pueden los agentes llamar a otros agentes?
Sí, esto se llama arquitectura multiagente. Usa la herramienta "Call n8n Workflow" para que un agente supervisor delegue en agentes especialistas (por ejemplo, un subagente de investigación, un subagente de escritura). Cada subflujo de trabajo contiene su propio nodo AI Agent. Esto es poderoso pero costoso: cada delegación agrega múltiples llamadas LLM.
¿Cómo evito que el agente alucine hechos?
Conecta el agente con herramientas: no confíes en el conocimiento paramétrico del LLM para los hechos. Usa un almacén de vectores o una herramienta de búsqueda para la información del producto, una API para los datos del pedido y una base de datos estructurada para los registros de los clientes. Indica explícitamente en el prompt del sistema: "Nunca inventes información, siempre usa las herramientas proporcionadas".