Agent
Agent 模块充当您的工作流与大型语言模型 (LLMs) 之间的接口。它针对各种 AI 提供商执行推理请求,根据定义的指令处理自然语言输入,并生成结构化或非结构化的输出供下游使用。

概述
Agent 模块使您能够:
处理自然语言:分析用户输入并生成上下文响应
执行 AI 驱动的任务:进行内容分析、生成和决策
调用外部工具:在处理过程中访问 API、数据库和服务
生成结构化输出:返回符合您架构要求的 JSON 数据
配置选项
系统提示
系统提示建立了 Agent 的操作参数和行为约束。此配置定义了 Agent 的角色、响应方法和所有传入请求的处理边界。
You are a helpful assistant that specializes in financial analysis.
Always provide clear explanations and cite sources when possible.
When responding to questions about investments, include risk disclaimers.
用户提示
用户提示是推理处理的主要输入数据。此参数接受自然语言文本或结构化数据,Agent 将对其进行分析并作出响应。输入来源包括:
- 静态配置:在模块配置中指定的直接文本输入
- 动态输入:通过连接接口从上游模块传递的数据
- 运行时生成:在工作流执行期间以编程方式生成的内容
模型选择
Agent 模块通过统一的推理接口支持多个 LLM 提供商。可用模型包括:
OpenAI 模型:GPT-5、GPT-4o、o1、o3、o4-mini、gpt-4.1(基于 API 的推理) Anthropic 模型:Claude 3.7 Sonnet(基于 API 的推理) Google 模型:Gemini 2.5 Pro、Gemini 2.0 Flash(基于 API 的推理) 其他提供商:Groq、Cerebras、xAI、DeepSeek(基于 API 的推理) 本地部署:兼容 Ollama 的模型(自托管推理)
温度
控制响应的创造性和随机性:
更具确定性和专注性的响应。最适合处理事实性任务、客户支持以及对准确性要求高的场景。
创造性与专注性的平衡。适用于需要兼顾准确性和一定创造性的通用应用。
更具创造性和多样性的响应。适合创意写作、头脑风暴和生成多样化的想法。
温度范围(0-1 或 0-2)取决于所选模型。
API 密钥
您所选 LLM 提供商的 API 密钥。此密钥会被安全存储并用于身份验证。
工具
工具通过外部 API 集成和服务连接扩展代理的能力。工具系统支持函数调用,使代理能够执行超出文本生成范围的操作。
工具集成流程:
- 进入代理模块中的工具配置部分
- 从 60 多种预构建集成中选择,或定义自定义函数
- 配置身份验证参数和操作约束
可用工具类别:
- 通信:Gmail、Slack、Telegram、WhatsApp、Microsoft Teams
- 数据源:Notion、Google Sheets、Airtable、Supabase、Pinecone
- 网络服务:Firecrawl、Google Search、Exa AI、浏览器自动化
- 开发:GitHub、Jira、Linear 仓库和问题管理
- AI 服务:OpenAI、Perplexity、Hugging Face、ElevenLabs
工具执行控制:
- Auto:模型根据上下文和必要性决定工具调用
- Required:每次推理请求时必须调用工具
- None:工具定义可用但不包含在模型上下文中
响应格式
响应格式参数通过 JSON Schema 验证强制生成结构化输出。这确保了符合预定义数据结构的一致、机器可读的响应:
{
"name": "user_analysis",
"schema": {
"type": "object",
"properties": {
"sentiment": {
"type": "string",
"enum": ["positive", "negative", "neutral"]
},
"confidence": {
"type": "number",
"minimum": 0,
"maximum": 1
}
},
"required": ["sentiment", "confidence"]
}
}
此配置限制模型的输出以符合指定的模式,防止生成自由格式的文本响应,并确保生成结构化数据。
访问结果
代理完成后,您可以访问其输出:
<agent.content>
:代理的响应文本或结构化数据<agent.tokens>
:令牌使用统计信息(提示、完成、总计)<agent.tool_calls>
:代理在执行过程中使用的任何工具的详细信息<agent.cost>
:API 调用的估计成本(如果可用)
高级功能
内存 + 代理:对话历史
使用一个 Memory
块和一个一致的 id
(例如,chat
)来在运行之间持久化消息,并将该历史记录包含在代理的提示中。
- 在代理之前添加用户消息
- 读取对话历史以获取上下文
- 在代理运行后附加其回复
# 1) Add latest user message
- Memory (operation: add)
id: chat
role: user
content: {{input}}
# 2) Load conversation history
- Memory (operation: get)
id: chat
# 3) Run the agent with prior messages available
- Agent
System Prompt: ...
User Prompt: |
Use the conversation so far:
{{memory_get.memories}}
Current user message: {{input}}
# 4) Store the agent reply
- Memory (operation: add)
id: chat
role: assistant
content: {{agent.content}}
有关详细信息,请参阅 Memory
块参考:工具/内存。
输入和输出
系统提示:定义代理行为和角色的指令
用户提示:要处理的输入文本或数据
模型:AI 模型选择(OpenAI、Anthropic、Google 等)
温度:响应随机性控制(0-2)
工具:可用于函数调用的工具数组
响应格式:用于结构化输出的 JSON Schema
agent.content:代理的响应文本或结构化数据
agent.tokens:令牌使用统计对象
agent.tool_calls:工具执行详细信息数组
agent.cost:API 调用的估计成本(如果可用)
内容:代理的主要响应输出
元数据:使用统计信息和执行详细信息
访问:在代理之后的块中可用
示例用例
客户支持自动化
场景:通过数据库访问处理客户咨询
- 用户通过 API 模块提交支持工单
- 代理在 Postgres 中检查订单/订阅,并在知识库中搜索指导
- 如果需要升级,代理会创建一个包含相关上下文的 Linear 问题
- 代理起草一封清晰的电子邮件回复
- Gmail 将回复发送给客户
- 对话保存到 Memory 中,以便为未来的消息保留历史记录
多模型内容分析
场景:使用不同的 AI 模型分析内容
- 功能模块处理上传的文档
- 使用 GPT-4o 的代理执行技术分析
- 使用 Claude 的代理分析情感和语气
- 功能模块结合结果生成最终报告
工具驱动的研究助手
场景:具有网页搜索和文档访问功能的研究助手
- 通过输入接收用户查询
- 代理使用 Google 搜索工具进行网页搜索
- 代理访问 Notion 数据库以获取内部文档
- 代理编写全面的研究报告
最佳实践
- 在系统提示中具体说明:清晰定义代理的角色、语气和限制。您的指令越具体,代理就越能更好地实现其预期目的。
- 选择合适的温度设置:当准确性很重要时,使用较低的温度设置(0-0.3);当需要更具创意或多样化的响应时,增加温度(0.7-2.0)。
- 有效利用工具:集成与代理目的互补并增强其能力的工具。选择性地提供工具,以避免让代理不堪重负。对于重叠较少的任务,使用另一个代理模块以获得最佳结果。