Agente
El bloque Agente sirve como interfaz entre tu flujo de trabajo y los Modelos de Lenguaje Grandes (LLMs). Ejecuta solicitudes de inferencia contra varios proveedores de IA, procesa entradas de lenguaje natural según las instrucciones definidas y genera salidas estructuradas o no estructuradas para su consumo posterior.

Descripción general
El bloque Agente te permite:
Procesar lenguaje natural: Analizar la entrada del usuario y generar respuestas contextuales
Ejecutar tareas impulsadas por IA: Realizar análisis de contenido, generación y toma de decisiones
Llamar a herramientas externas: Acceder a APIs, bases de datos y servicios durante el procesamiento
Generar salida estructurada: Devolver datos JSON que coincidan con los requisitos de tu esquema
Opciones de configuración
Prompt del sistema
El prompt del sistema establece los parámetros operativos y las restricciones de comportamiento del agente. Esta configuración define el rol del agente, la metodologÃa de respuesta y los lÃmites de procesamiento para todas las solicitudes entrantes.
You are a helpful assistant that specializes in financial analysis.
Always provide clear explanations and cite sources when possible.
When responding to questions about investments, include risk disclaimers.
Prompt del usuario
El prompt del usuario representa los datos de entrada principales para el procesamiento de inferencia. Este parámetro acepta texto en lenguaje natural o datos estructurados que el agente analizará y a los que responderá. Las fuentes de entrada incluyen:
- Configuración estática: Entrada de texto directa especificada en la configuración del bloque
- Entrada dinámica: Datos pasados desde bloques anteriores a través de interfaces de conexión
- Generación en tiempo de ejecución: Contenido generado programáticamente durante la ejecución del flujo de trabajo
Selección de modelo
El bloque Agente admite múltiples proveedores de LLM a través de una interfaz de inferencia unificada. Los modelos disponibles incluyen:
Modelos de OpenAI: GPT-5, GPT-4o, o1, o3, o4-mini, gpt-4.1 (inferencia basada en API) Modelos de Anthropic: Claude 3.7 Sonnet (inferencia basada en API) Modelos de Google: Gemini 2.5 Pro, Gemini 2.0 Flash (inferencia basada en API) Proveedores alternativos: Groq, Cerebras, xAI, DeepSeek (inferencia basada en API) Despliegue local: Modelos compatibles con Ollama (inferencia autohospedada)
Temperatura
Controla la creatividad y aleatoriedad de las respuestas:
Respuestas más deterministas y enfocadas. Ideal para tareas factuales, atención al cliente y situaciones donde la precisión es crÃtica.
Equilibrio entre creatividad y enfoque. Adecuado para aplicaciones de uso general que requieren tanto precisión como cierta creatividad.
Respuestas más creativas y variadas. Ideal para escritura creativa, lluvia de ideas y generación de ideas diversas.
El rango de temperatura (0-1 o 0-2) varÃa dependiendo del modelo seleccionado.
Clave API
Tu clave API para el proveedor de LLM seleccionado. Se almacena de forma segura y se utiliza para la autenticación.
Herramientas
Las herramientas amplÃan las capacidades del agente mediante integraciones de API externas y conexiones de servicios. El sistema de herramientas permite la llamada a funciones, permitiendo al agente ejecutar operaciones más allá de la generación de texto.
Proceso de integración de herramientas:
- Accede a la sección de configuración de Herramientas dentro del bloque del Agente
- Selecciona entre más de 60 integraciones predefinidas o define funciones personalizadas
- Configura los parámetros de autenticación y las restricciones operativas
CategorÃas de herramientas disponibles:
- Comunicación: Gmail, Slack, Telegram, WhatsApp, Microsoft Teams
- Fuentes de datos: Notion, Google Sheets, Airtable, Supabase, Pinecone
- Servicios web: Firecrawl, Google Search, Exa AI, automatización de navegador
- Desarrollo: GitHub, Jira, gestión de repositorios y problemas en Linear
- Servicios de IA: OpenAI, Perplexity, Hugging Face, ElevenLabs
Control de ejecución de herramientas:
- Auto: El modelo determina la invocación de herramientas según el contexto y la necesidad
- Requerido: La herramienta debe ser llamada durante cada solicitud de inferencia
- Ninguno: Definición de herramienta disponible pero excluida del contexto del modelo
Formato de respuesta
El parámetro de formato de respuesta impone la generación de salidas estructuradas mediante la validación de esquemas JSON. Esto asegura respuestas consistentes y legibles por máquina que se ajustan a estructuras de datos predefinidas:
{
"name": "user_analysis",
"schema": {
"type": "object",
"properties": {
"sentiment": {
"type": "string",
"enum": ["positive", "negative", "neutral"]
},
"confidence": {
"type": "number",
"minimum": 0,
"maximum": 1
}
},
"required": ["sentiment", "confidence"]
}
}
Esta configuración restringe la salida del modelo para que cumpla con el esquema especificado, evitando respuestas de texto libre y asegurando la generación de datos estructurados.
Acceso a los resultados
Después de que un agente completa su tarea, puedes acceder a sus salidas:
<agent.content>
: El texto de respuesta o datos estructurados del agente<agent.tokens>
: EstadÃsticas de uso de tokens (prompt, completado, total)<agent.tool_calls>
: Detalles de cualquier herramienta que el agente utilizó durante la ejecución<agent.cost>
: Costo estimado de la llamada a la API (si está disponible)
Funciones avanzadas
Memoria + Agente: Historial de conversación
Utiliza un bloque Memory
con un id
consistente (por ejemplo, chat
) para persistir mensajes entre ejecuciones, e incluir ese historial en el prompt del agente.
- Añade el mensaje del usuario antes del agente
- Lee el historial de conversación para contexto
- Añade la respuesta del agente después de que se ejecute
# 1) Add latest user message
- Memory (operation: add)
id: chat
role: user
content: {{input}}
# 2) Load conversation history
- Memory (operation: get)
id: chat
# 3) Run the agent with prior messages available
- Agent
System Prompt: ...
User Prompt: |
Use the conversation so far:
{{memory_get.memories}}
Current user message: {{input}}
# 4) Store the agent reply
- Memory (operation: add)
id: chat
role: assistant
content: {{agent.content}}
Consulta la referencia del bloque Memory
para más detalles: /tools/memory.
Entradas y salidas
Prompt del sistema: Instrucciones que definen el comportamiento y rol del agente
Prompt del usuario: Texto de entrada o datos a procesar
Modelo: Selección del modelo de IA (OpenAI, Anthropic, Google, etc.)
Temperatura: Control de aleatoriedad de respuesta (0-2)
Herramientas: Array de herramientas disponibles para llamadas a funciones
Formato de respuesta: Esquema JSON para salida estructurada
agent.content: Texto de respuesta o datos estructurados del agente
agent.tokens: Objeto de estadÃsticas de uso de tokens
agent.tool_calls: Array de detalles de ejecución de herramientas
agent.cost: Costo estimado de la llamada a la API (si está disponible)
Contenido: Salida de respuesta principal del agente
Metadatos: EstadÃsticas de uso y detalles de ejecución
Acceso: Disponible en bloques después del agente
Ejemplos de casos de uso
Automatización de atención al cliente
Escenario: Gestionar consultas de clientes con acceso a base de datos
- El usuario envÃa un ticket de soporte a través del bloque API
- El agente verifica pedidos/suscripciones en Postgres y busca en la base de conocimientos para obtener orientación
- Si se necesita escalamiento, el agente crea una incidencia en Linear con el contexto relevante
- El agente redacta una respuesta clara por correo electrónico
- Gmail envÃa la respuesta al cliente
- La conversación se guarda en Memoria para mantener el historial para mensajes futuros
Análisis de contenido multi-modelo
Escenario: Analizar contenido con diferentes modelos de IA
- El bloque de función procesa el documento cargado
- El agente con GPT-4o realiza análisis técnico
- El agente con Claude analiza el sentimiento y tono
- El bloque de función combina los resultados para el informe final
Asistente de investigación con herramientas
Escenario: Asistente de investigación con búsqueda web y acceso a documentos
- Consulta del usuario recibida a través de entrada
- El agente busca en la web usando la herramienta de Google Search
- El agente accede a la base de datos de Notion para documentos internos
- El agente compila un informe de investigación completo
Mejores prácticas
- Sé especÃfico en los prompts del sistema: Define claramente el rol, tono y limitaciones del agente. Cuanto más especÃficas sean tus instrucciones, mejor podrá el agente cumplir con su propósito previsto.
- Elige la configuración de temperatura adecuada: Usa configuraciones de temperatura más bajas (0-0.3) cuando la precisión es importante, o aumenta la temperatura (0.7-2.0) para respuestas más creativas o variadas
- Aprovecha las herramientas de manera efectiva: Integra herramientas que complementen el propósito del agente y mejoren sus capacidades. Sé selectivo sobre qué herramientas proporcionas para evitar sobrecargar al agente. Para tareas con poca superposición, usa otro bloque de Agente para obtener los mejores resultados.