Agent
Der Agent-Block dient als Schnittstelle zwischen Ihrem Workflow und Large Language Models (LLMs). Er führt Inferenzanfragen an verschiedene KI-Anbieter aus, verarbeitet natürlichsprachliche Eingaben gemäß definierten Anweisungen und erzeugt strukturierte oder unstrukturierte Ausgaben für die nachgelagerte Verarbeitung.

Überblick
Der Agent-Block ermöglicht Ihnen:
Natürliche Sprache verarbeiten: Benutzereingaben analysieren und kontextbezogene Antworten generieren
KI-gestützte Aufgaben ausführen: Inhaltsanalyse, -erstellung und Entscheidungsfindung durchführen
Externe Tools aufrufen: Während der Verarbeitung auf APIs, Datenbanken und Dienste zugreifen
Strukturierte Ausgabe erzeugen: JSON-Daten zurückgeben, die Ihren Schema-Anforderungen entsprechen
Konfigurationsoptionen
System-Prompt
Der System-Prompt legt die Betriebsparameter und Verhaltenseinschränkungen des Agenten fest. Diese Konfiguration definiert die Rolle des Agenten, die Antwortmethodik und die Verarbeitungsgrenzen für alle eingehenden Anfragen.
You are a helpful assistant that specializes in financial analysis.
Always provide clear explanations and cite sources when possible.
When responding to questions about investments, include risk disclaimers.
Benutzer-Prompt
Der Benutzer-Prompt stellt die primären Eingabedaten für die Inferenzverarbeitung dar. Dieser Parameter akzeptiert natürlichsprachlichen Text oder strukturierte Daten, die der Agent analysieren und auf die er reagieren wird. Zu den Eingabequellen gehören:
- Statische Konfiguration: Direkte Texteingabe, die in der Block-Konfiguration angegeben ist
- Dynamische Eingabe: Daten, die von vorgelagerten Blöcken über Verbindungsschnittstellen übergeben werden
- Laufzeitgenerierung: Programmatisch erzeugte Inhalte während der Workflow-Ausführung
Modellauswahl
Der Agent-Block unterstützt mehrere LLM-Anbieter über eine einheitliche Inferenzschnittstelle. Verfügbare Modelle umfassen:
OpenAI-Modelle: GPT-5, GPT-4o, o1, o3, o4-mini, gpt-4.1 (API-basierte Inferenz) Anthropic-Modelle: Claude 3.7 Sonnet (API-basierte Inferenz) Google-Modelle: Gemini 2.5 Pro, Gemini 2.0 Flash (API-basierte Inferenz) Alternative Anbieter: Groq, Cerebras, xAI, DeepSeek (API-basierte Inferenz) Lokale Bereitstellung: Ollama-kompatible Modelle (selbst gehostete Inferenz)
Temperatur
Steuern Sie die Kreativität und Zufälligkeit der Antworten:
Deterministische, fokussierte Antworten. Am besten für faktische Aufgaben, Kundensupport und Situationen, in denen Genauigkeit entscheidend ist.
Ausgewogene Kreativität und Fokus. Geeignet für allgemeine Anwendungen, die sowohl Genauigkeit als auch etwas Kreativität erfordern.
Kreativere, abwechslungsreichere Antworten. Ideal für kreatives Schreiben, Brainstorming und das Generieren vielfältiger Ideen.
Der Temperaturbereich (0-1 oder 0-2) variiert je nach ausgewähltem Modell.
API-Schlüssel
Ihr API-Schlüssel für den ausgewählten LLM-Anbieter. Dieser wird sicher gespeichert und für die Authentifizierung verwendet.
Tools
Tools erweitern die Fähigkeiten des Agenten durch externe API-Integrationen und Service-Verbindungen. Das Tool-System ermöglicht Funktionsaufrufe, sodass der Agent Operationen über die Texterstellung hinaus ausführen kann.
Tool-Integrationsprozess:
- Zugriff auf den Tools-Konfigurationsbereich innerhalb des Agent-Blocks
- Auswahl aus über 60 vorgefertigten Integrationen oder Definition benutzerdefinierter Funktionen
- Konfiguration von Authentifizierungsparametern und Betriebseinschränkungen
Verfügbare Tool-Kategorien:
- Kommunikation: Gmail, Slack, Telegram, WhatsApp, Microsoft Teams
- Datenquellen: Notion, Google Sheets, Airtable, Supabase, Pinecone
- Webdienste: Firecrawl, Google Search, Exa AI, Browser-Automatisierung
- Entwicklung: GitHub, Jira, Linear Repository- und Issue-Management
- KI-Dienste: OpenAI, Perplexity, Hugging Face, ElevenLabs
Steuerung der Tool-Ausführung:
- Auto: Modell bestimmt Tool-Aufruf basierend auf Kontext und Notwendigkeit
- Required: Tool muss bei jeder Inferenzanfrage aufgerufen werden
- None: Tool-Definition verfügbar, aber vom Modellkontext ausgeschlossen
Antwortformat
Der Parameter für das Antwortformat erzwingt eine strukturierte Ausgabegenerierung durch JSON-Schema-Validierung. Dies gewährleistet konsistente, maschinenlesbare Antworten, die vordefinierten Datenstrukturen entsprechen:
{
"name": "user_analysis",
"schema": {
"type": "object",
"properties": {
"sentiment": {
"type": "string",
"enum": ["positive", "negative", "neutral"]
},
"confidence": {
"type": "number",
"minimum": 0,
"maximum": 1
}
},
"required": ["sentiment", "confidence"]
}
}
Diese Konfiguration beschränkt die Ausgabe des Modells auf die Einhaltung des angegebenen Schemas, verhindert Freitext-Antworten und stellt eine strukturierte Datengenerierung sicher.
Zugriff auf Ergebnisse
Nach Abschluss eines Agenten können Sie auf seine Ausgaben zugreifen:
<agent.content>
: Der Antworttext oder die strukturierten Daten des Agenten<agent.tokens>
: Token-Nutzungsstatistiken (Prompt, Completion, Gesamt)<agent.tool_calls>
: Details zu allen Tools, die der Agent während der Ausführung verwendet hat<agent.cost>
: Geschätzte Kosten des API-Aufrufs (falls verfügbar)
Erweiterte Funktionen
Memory + Agent: Gesprächsverlauf
Verwenden Sie einen Memory
Block mit einer konsistenten id
(zum Beispiel chat
), um Nachrichten zwischen Durchläufen zu speichern und diesen Verlauf in den Prompt des Agenten einzubeziehen.
- Fügen Sie die Nachricht des Benutzers vor dem Agenten hinzu
- Lesen Sie den Gesprächsverlauf für den Kontext
- Hängen Sie die Antwort des Agenten nach dessen Ausführung an
# 1) Add latest user message
- Memory (operation: add)
id: chat
role: user
content: {{input}}
# 2) Load conversation history
- Memory (operation: get)
id: chat
# 3) Run the agent with prior messages available
- Agent
System Prompt: ...
User Prompt: |
Use the conversation so far:
{{memory_get.memories}}
Current user message: {{input}}
# 4) Store the agent reply
- Memory (operation: add)
id: chat
role: assistant
content: {{agent.content}}
Siehe die Memory
Block-Referenz für Details: /tools/memory.
Eingaben und Ausgaben
System Prompt: Anweisungen, die das Verhalten und die Rolle des Agenten definieren
User Prompt: Eingabetext oder -daten zur Verarbeitung
Model: KI-Modellauswahl (OpenAI, Anthropic, Google, etc.)
Temperature: Steuerung der Antwort-Zufälligkeit (0-2)
Tools: Array verfügbarer Tools für Funktionsaufrufe
Response Format: JSON-Schema für strukturierte Ausgabe
agent.content: Antworttext oder strukturierte Daten des Agenten
agent.tokens: Token-Nutzungsstatistik-Objekt
agent.tool_calls: Array mit Details zur Tool-Ausführung
agent.cost: Geschätzte API-Aufrufkosten (falls verfügbar)
Content: Primäre Antwortausgabe vom Agenten
Metadata: Nutzungsstatistiken und Ausführungsdetails
Access: Verfügbar in Blöcken nach dem Agenten
Beispielanwendungsfälle
Automatisierung des Kundendienstes
Szenario: Bearbeitung von Kundenanfragen mit Datenbankzugriff
- Benutzer reicht ein Support-Ticket über den API-Block ein
- Agent prüft Bestellungen/Abonnements in Postgres und durchsucht die Wissensdatenbank nach Anleitungen
- Falls eine Eskalation erforderlich ist, erstellt der Agent ein Linear-Ticket mit relevantem Kontext
- Agent verfasst eine klare E-Mail-Antwort
- Gmail sendet die Antwort an den Kunden
- Konversation wird im Speicher gesichert, um den Verlauf für zukünftige Nachrichten zu erhalten
Multi-Modell-Inhaltsanalyse
Szenario: Analyse von Inhalten mit verschiedenen KI-Modellen
- Funktionsblock verarbeitet hochgeladenes Dokument
- Agent mit GPT-4o führt technische Analyse durch
- Agent mit Claude analysiert Stimmung und Tonfall
- Funktionsblock kombiniert Ergebnisse für den Abschlussbericht
Werkzeuggestützter Rechercheassistent
Szenario: Rechercheassistent mit Websuche und Dokumentenzugriff
- Benutzeranfrage über Eingabe erhalten
- Agent durchsucht das Web mit dem Google Search-Tool
- Agent greift auf Notion-Datenbank für interne Dokumente zu
- Agent erstellt umfassenden Recherchebericht
Best Practices
- Sei spezifisch in System-Prompts: Definiere die Rolle, den Tonfall und die Einschränkungen des Agenten klar. Je spezifischer deine Anweisungen sind, desto besser kann der Agent seinen vorgesehenen Zweck erfüllen.
- Wähle die richtige Temperatureinstellung: Verwende niedrigere Temperatureinstellungen (0-0,3), wenn Genauigkeit wichtig ist, oder erhöhe die Temperatur (0,7-2,0) für kreativere oder abwechslungsreichere Antworten
- Nutze Tools effektiv: Integriere Tools, die den Zweck des Agenten ergänzen und seine Fähigkeiten erweitern. Sei selektiv bei der Auswahl der Tools, um den Agenten nicht zu überfordern. Für Aufgaben mit wenig Überschneidung verwende einen anderen Agent-Block für die besten Ergebnisse.