Sim

Agente

El bloque Agente sirve como interfaz entre tu flujo de trabajo y los Modelos de Lenguaje Grandes (LLMs). Ejecuta solicitudes de inferencia contra varios proveedores de IA, procesa entradas de lenguaje natural según las instrucciones definidas y genera salidas estructuradas o no estructuradas para su consumo posterior.

Configuración del bloque Agente

Descripción general

El bloque Agente te permite:

Procesar lenguaje natural: Analizar la entrada del usuario y generar respuestas contextuales

Ejecutar tareas impulsadas por IA: Realizar análisis de contenido, generación y toma de decisiones

Llamar a herramientas externas: Acceder a APIs, bases de datos y servicios durante el procesamiento

Generar salida estructurada: Devolver datos JSON que coincidan con los requisitos de tu esquema

Opciones de configuración

Prompt del sistema

El prompt del sistema establece los parámetros operativos y las restricciones de comportamiento del agente. Esta configuración define el rol del agente, la metodología de respuesta y los límites de procesamiento para todas las solicitudes entrantes.

You are a helpful assistant that specializes in financial analysis.
Always provide clear explanations and cite sources when possible.
When responding to questions about investments, include risk disclaimers.

Prompt del usuario

El prompt del usuario representa los datos de entrada principales para el procesamiento de inferencia. Este parámetro acepta texto en lenguaje natural o datos estructurados que el agente analizará y a los que responderá. Las fuentes de entrada incluyen:

  • Configuración estática: Entrada de texto directa especificada en la configuración del bloque
  • Entrada dinámica: Datos pasados desde bloques anteriores a través de interfaces de conexión
  • Generación en tiempo de ejecución: Contenido generado programáticamente durante la ejecución del flujo de trabajo

Selección de modelo

El bloque Agente admite múltiples proveedores de LLM a través de una interfaz de inferencia unificada. Los modelos disponibles incluyen:

Modelos de OpenAI: GPT-5, GPT-4o, o1, o3, o4-mini, gpt-4.1 (inferencia basada en API) Modelos de Anthropic: Claude 3.7 Sonnet (inferencia basada en API) Modelos de Google: Gemini 2.5 Pro, Gemini 2.0 Flash (inferencia basada en API) Proveedores alternativos: Groq, Cerebras, xAI, DeepSeek (inferencia basada en API) Despliegue local: Modelos compatibles con Ollama (inferencia autohospedada)

Temperatura

Controla la creatividad y aleatoriedad de las respuestas:

Respuestas más deterministas y enfocadas. Ideal para tareas factuales, atención al cliente y situaciones donde la precisión es crítica.

Equilibrio entre creatividad y enfoque. Adecuado para aplicaciones de uso general que requieren tanto precisión como cierta creatividad.

Respuestas más creativas y variadas. Ideal para escritura creativa, lluvia de ideas y generación de ideas diversas.

El rango de temperatura (0-1 o 0-2) varía dependiendo del modelo seleccionado.

Clave API

Tu clave API para el proveedor de LLM seleccionado. Se almacena de forma segura y se utiliza para la autenticación.

Herramientas

Las herramientas amplían las capacidades del agente mediante integraciones de API externas y conexiones de servicios. El sistema de herramientas permite la llamada a funciones, permitiendo al agente ejecutar operaciones más allá de la generación de texto.

Proceso de integración de herramientas:

  1. Accede a la sección de configuración de Herramientas dentro del bloque del Agente
  2. Selecciona entre más de 60 integraciones predefinidas o define funciones personalizadas
  3. Configura los parámetros de autenticación y las restricciones operativas

Categorías de herramientas disponibles:

  • Comunicación: Gmail, Slack, Telegram, WhatsApp, Microsoft Teams
  • Fuentes de datos: Notion, Google Sheets, Airtable, Supabase, Pinecone
  • Servicios web: Firecrawl, Google Search, Exa AI, automatización de navegador
  • Desarrollo: GitHub, Jira, gestión de repositorios y problemas en Linear
  • Servicios de IA: OpenAI, Perplexity, Hugging Face, ElevenLabs

Control de ejecución de herramientas:

  • Auto: El modelo determina la invocación de herramientas según el contexto y la necesidad
  • Requerido: La herramienta debe ser llamada durante cada solicitud de inferencia
  • Ninguno: Definición de herramienta disponible pero excluida del contexto del modelo

Formato de respuesta

El parámetro de formato de respuesta impone la generación de salidas estructuradas mediante la validación de esquemas JSON. Esto asegura respuestas consistentes y legibles por máquina que se ajustan a estructuras de datos predefinidas:

{
  "name": "user_analysis",
  "schema": {
    "type": "object",
    "properties": {
      "sentiment": {
        "type": "string",
        "enum": ["positive", "negative", "neutral"]
      },
      "confidence": {
        "type": "number",
        "minimum": 0,
        "maximum": 1
      }
    },
    "required": ["sentiment", "confidence"]
  }
}

Esta configuración restringe la salida del modelo para que cumpla con el esquema especificado, evitando respuestas de texto libre y asegurando la generación de datos estructurados.

Acceso a los resultados

Después de que un agente completa su tarea, puedes acceder a sus salidas:

  • <agent.content>: El texto de respuesta o datos estructurados del agente
  • <agent.tokens>: Estadísticas de uso de tokens (prompt, completado, total)
  • <agent.tool_calls>: Detalles de cualquier herramienta que el agente utilizó durante la ejecución
  • <agent.cost>: Costo estimado de la llamada a la API (si está disponible)

Funciones avanzadas

Memoria + Agente: Historial de conversación

Utiliza un bloque Memory con un id consistente (por ejemplo, chat) para persistir mensajes entre ejecuciones, e incluir ese historial en el prompt del agente.

  • Añade el mensaje del usuario antes del agente
  • Lee el historial de conversación para contexto
  • Añade la respuesta del agente después de que se ejecute
# 1) Add latest user message
- Memory (operation: add)
  id: chat
  role: user
  content: {{input}}

# 2) Load conversation history
- Memory (operation: get)
  id: chat

# 3) Run the agent with prior messages available
- Agent
  System Prompt: ...
  User Prompt: |
    Use the conversation so far:
    {{memory_get.memories}}
    Current user message: {{input}}

# 4) Store the agent reply
- Memory (operation: add)
  id: chat
  role: assistant
  content: {{agent.content}}

Consulta la referencia del bloque Memory para más detalles: /tools/memory.

Entradas y salidas

  • Prompt del sistema: Instrucciones que definen el comportamiento y rol del agente

  • Prompt del usuario: Texto de entrada o datos a procesar

  • Modelo: Selección del modelo de IA (OpenAI, Anthropic, Google, etc.)

  • Temperatura: Control de aleatoriedad de respuesta (0-2)

  • Herramientas: Array de herramientas disponibles para llamadas a funciones

  • Formato de respuesta: Esquema JSON para salida estructurada

  • agent.content: Texto de respuesta o datos estructurados del agente

  • agent.tokens: Objeto de estadísticas de uso de tokens

  • agent.tool_calls: Array de detalles de ejecución de herramientas

  • agent.cost: Costo estimado de la llamada a la API (si está disponible)

  • Contenido: Salida de respuesta principal del agente

  • Metadatos: Estadísticas de uso y detalles de ejecución

  • Acceso: Disponible en bloques después del agente

Ejemplos de casos de uso

Automatización de atención al cliente

Escenario: Gestionar consultas de clientes con acceso a base de datos

  1. El usuario envía un ticket de soporte a través del bloque API
  2. El agente verifica pedidos/suscripciones en Postgres y busca en la base de conocimientos para obtener orientación
  3. Si se necesita escalamiento, el agente crea una incidencia en Linear con el contexto relevante
  4. El agente redacta una respuesta clara por correo electrónico
  5. Gmail envía la respuesta al cliente
  6. La conversación se guarda en Memoria para mantener el historial para mensajes futuros

Análisis de contenido multi-modelo

Escenario: Analizar contenido con diferentes modelos de IA

  1. El bloque de función procesa el documento cargado
  2. El agente con GPT-4o realiza análisis técnico
  3. El agente con Claude analiza el sentimiento y tono
  4. El bloque de función combina los resultados para el informe final

Asistente de investigación con herramientas

Escenario: Asistente de investigación con búsqueda web y acceso a documentos

  1. Consulta del usuario recibida a través de entrada
  2. El agente busca en la web usando la herramienta de Google Search
  3. El agente accede a la base de datos de Notion para documentos internos
  4. El agente compila un informe de investigación completo

Mejores prácticas

  • Sé específico en los prompts del sistema: Define claramente el rol, tono y limitaciones del agente. Cuanto más específicas sean tus instrucciones, mejor podrá el agente cumplir con su propósito previsto.
  • Elige la configuración de temperatura adecuada: Usa configuraciones de temperatura más bajas (0-0.3) cuando la precisión es importante, o aumenta la temperatura (0.7-2.0) para respuestas más creativas o variadas
  • Aprovecha las herramientas de manera efectiva: Integra herramientas que complementen el propósito del agente y mejoren sus capacidades. Sé selectivo sobre qué herramientas proporcionas para evitar sobrecargar al agente. Para tareas con poca superposición, usa otro bloque de Agente para obtener los mejores resultados.
Agente