Sim

Agent

Agent 模块充当您的工作流与大型语言模型 (LLMs) 之间的接口。它针对各种 AI 提供商执行推理请求,根据定义的指令处理自然语言输入,并生成结构化或非结构化的输出供下游使用。

Agent 模块配置

概述

Agent 模块使您能够:

处理自然语言:分析用户输入并生成上下文响应

执行 AI 驱动的任务:进行内容分析、生成和决策

调用外部工具:在处理过程中访问 API、数据库和服务

生成结构化输出:返回符合您架构要求的 JSON 数据

配置选项

系统提示

系统提示建立了 Agent 的操作参数和行为约束。此配置定义了 Agent 的角色、响应方法和所有传入请求的处理边界。

You are a helpful assistant that specializes in financial analysis.
Always provide clear explanations and cite sources when possible.
When responding to questions about investments, include risk disclaimers.

用户提示

用户提示是推理处理的主要输入数据。此参数接受自然语言文本或结构化数据,Agent 将对其进行分析并作出响应。输入来源包括:

  • 静态配置:在模块配置中指定的直接文本输入
  • 动态输入:通过连接接口从上游模块传递的数据
  • 运行时生成:在工作流执行期间以编程方式生成的内容

模型选择

Agent 模块通过统一的推理接口支持多个 LLM 提供商。可用模型包括:

OpenAI 模型:GPT-5、GPT-4o、o1、o3、o4-mini、gpt-4.1(基于 API 的推理) Anthropic 模型:Claude 3.7 Sonnet(基于 API 的推理) Google 模型:Gemini 2.5 Pro、Gemini 2.0 Flash(基于 API 的推理) 其他提供商:Groq、Cerebras、xAI、DeepSeek(基于 API 的推理) 本地部署:兼容 Ollama 的模型(自托管推理)

温度

控制响应的创造性和随机性:

更具确定性和专注性的响应。最适合处理事实性任务、客户支持以及对准确性要求高的场景。

创造性与专注性的平衡。适用于需要兼顾准确性和一定创造性的通用应用。

更具创造性和多样性的响应。适合创意写作、头脑风暴和生成多样化的想法。

温度范围(0-1 或 0-2)取决于所选模型。

API 密钥

您所选 LLM 提供商的 API 密钥。此密钥会被安全存储并用于身份验证。

工具

工具通过外部 API 集成和服务连接扩展代理的能力。工具系统支持函数调用,使代理能够执行超出文本生成范围的操作。

工具集成流程

  1. 进入代理模块中的工具配置部分
  2. 从 60 多种预构建集成中选择,或定义自定义函数
  3. 配置身份验证参数和操作约束

可用工具类别

  • 通信:Gmail、Slack、Telegram、WhatsApp、Microsoft Teams
  • 数据源:Notion、Google Sheets、Airtable、Supabase、Pinecone
  • 网络服务:Firecrawl、Google Search、Exa AI、浏览器自动化
  • 开发:GitHub、Jira、Linear 仓库和问题管理
  • AI 服务:OpenAI、Perplexity、Hugging Face、ElevenLabs

工具执行控制

  • Auto:模型根据上下文和必要性决定工具调用
  • Required:每次推理请求时必须调用工具
  • None:工具定义可用但不包含在模型上下文中

响应格式

响应格式参数通过 JSON Schema 验证强制生成结构化输出。这确保了符合预定义数据结构的一致、机器可读的响应:

{
  "name": "user_analysis",
  "schema": {
    "type": "object",
    "properties": {
      "sentiment": {
        "type": "string",
        "enum": ["positive", "negative", "neutral"]
      },
      "confidence": {
        "type": "number",
        "minimum": 0,
        "maximum": 1
      }
    },
    "required": ["sentiment", "confidence"]
  }
}

此配置限制模型的输出以符合指定的模式,防止生成自由格式的文本响应,并确保生成结构化数据。

访问结果

代理完成后,您可以访问其输出:

  • <agent.content>:代理的响应文本或结构化数据
  • <agent.tokens>:令牌使用统计信息(提示、完成、总计)
  • <agent.tool_calls>:代理在执行过程中使用的任何工具的详细信息
  • <agent.cost>:API 调用的估计成本(如果可用)

高级功能

内存 + 代理:对话历史

使用一个 Memory 块和一个一致的 id(例如,chat)来在运行之间持久化消息,并将该历史记录包含在代理的提示中。

  • 在代理之前添加用户消息
  • 读取对话历史以获取上下文
  • 在代理运行后附加其回复
# 1) Add latest user message
- Memory (operation: add)
  id: chat
  role: user
  content: {{input}}

# 2) Load conversation history
- Memory (operation: get)
  id: chat

# 3) Run the agent with prior messages available
- Agent
  System Prompt: ...
  User Prompt: |
    Use the conversation so far:
    {{memory_get.memories}}
    Current user message: {{input}}

# 4) Store the agent reply
- Memory (operation: add)
  id: chat
  role: assistant
  content: {{agent.content}}

有关详细信息,请参阅 Memory 块参考:工具/内存

输入和输出

  • 系统提示:定义代理行为和角色的指令

  • 用户提示:要处理的输入文本或数据

  • 模型:AI 模型选择(OpenAI、Anthropic、Google 等)

  • 温度:响应随机性控制(0-2)

  • 工具:可用于函数调用的工具数组

  • 响应格式:用于结构化输出的 JSON Schema

  • agent.content:代理的响应文本或结构化数据

  • agent.tokens:令牌使用统计对象

  • agent.tool_calls:工具执行详细信息数组

  • agent.cost:API 调用的估计成本(如果可用)

  • 内容:代理的主要响应输出

  • 元数据:使用统计信息和执行详细信息

  • 访问:在代理之后的块中可用

示例用例

客户支持自动化

场景:通过数据库访问处理客户咨询

  1. 用户通过 API 模块提交支持工单
  2. 代理在 Postgres 中检查订单/订阅,并在知识库中搜索指导
  3. 如果需要升级,代理会创建一个包含相关上下文的 Linear 问题
  4. 代理起草一封清晰的电子邮件回复
  5. Gmail 将回复发送给客户
  6. 对话保存到 Memory 中,以便为未来的消息保留历史记录

多模型内容分析

场景:使用不同的 AI 模型分析内容

  1. 功能模块处理上传的文档
  2. 使用 GPT-4o 的代理执行技术分析
  3. 使用 Claude 的代理分析情感和语气
  4. 功能模块结合结果生成最终报告

工具驱动的研究助手

场景:具有网页搜索和文档访问功能的研究助手

  1. 通过输入接收用户查询
  2. 代理使用 Google 搜索工具进行网页搜索
  3. 代理访问 Notion 数据库以获取内部文档
  4. 代理编写全面的研究报告

最佳实践

  • 在系统提示中具体说明:清晰定义代理的角色、语气和限制。您的指令越具体,代理就越能更好地实现其预期目的。
  • 选择合适的温度设置:当准确性很重要时,使用较低的温度设置(0-0.3);当需要更具创意或多样化的响应时,增加温度(0.7-2.0)。
  • 有效利用工具:集成与代理目的互补并增强其能力的工具。选择性地提供工具,以避免让代理不堪重负。对于重叠较少的任务,使用另一个代理模块以获得最佳结果。
Agent