Sim

Agent

Der Agent-Block dient als Schnittstelle zwischen Ihrem Workflow und Large Language Models (LLMs). Er führt Inferenzanfragen an verschiedene KI-Anbieter aus, verarbeitet natürlichsprachliche Eingaben gemäß definierten Anweisungen und erzeugt strukturierte oder unstrukturierte Ausgaben für die nachgelagerte Verarbeitung.

Agent-Block-Konfiguration

Überblick

Der Agent-Block ermöglicht Ihnen:

Natürliche Sprache verarbeiten: Benutzereingaben analysieren und kontextbezogene Antworten generieren

KI-gestützte Aufgaben ausführen: Inhaltsanalyse, -erstellung und Entscheidungsfindung durchführen

Externe Tools aufrufen: Während der Verarbeitung auf APIs, Datenbanken und Dienste zugreifen

Strukturierte Ausgabe erzeugen: JSON-Daten zurückgeben, die Ihren Schema-Anforderungen entsprechen

Konfigurationsoptionen

System-Prompt

Der System-Prompt legt die Betriebsparameter und Verhaltenseinschränkungen des Agenten fest. Diese Konfiguration definiert die Rolle des Agenten, die Antwortmethodik und die Verarbeitungsgrenzen für alle eingehenden Anfragen.

You are a helpful assistant that specializes in financial analysis.
Always provide clear explanations and cite sources when possible.
When responding to questions about investments, include risk disclaimers.

Benutzer-Prompt

Der Benutzer-Prompt stellt die primären Eingabedaten für die Inferenzverarbeitung dar. Dieser Parameter akzeptiert natürlichsprachlichen Text oder strukturierte Daten, die der Agent analysieren und auf die er reagieren wird. Zu den Eingabequellen gehören:

  • Statische Konfiguration: Direkte Texteingabe, die in der Block-Konfiguration angegeben ist
  • Dynamische Eingabe: Daten, die von vorgelagerten Blöcken über Verbindungsschnittstellen übergeben werden
  • Laufzeitgenerierung: Programmatisch erzeugte Inhalte während der Workflow-Ausführung

Modellauswahl

Der Agent-Block unterstützt mehrere LLM-Anbieter über eine einheitliche Inferenzschnittstelle. Verfügbare Modelle umfassen:

OpenAI-Modelle: GPT-5, GPT-4o, o1, o3, o4-mini, gpt-4.1 (API-basierte Inferenz) Anthropic-Modelle: Claude 3.7 Sonnet (API-basierte Inferenz) Google-Modelle: Gemini 2.5 Pro, Gemini 2.0 Flash (API-basierte Inferenz) Alternative Anbieter: Groq, Cerebras, xAI, DeepSeek (API-basierte Inferenz) Lokale Bereitstellung: Ollama-kompatible Modelle (selbst gehostete Inferenz)

Temperatur

Steuern Sie die Kreativität und Zufälligkeit der Antworten:

Deterministische, fokussierte Antworten. Am besten für faktische Aufgaben, Kundensupport und Situationen, in denen Genauigkeit entscheidend ist.

Ausgewogene Kreativität und Fokus. Geeignet für allgemeine Anwendungen, die sowohl Genauigkeit als auch etwas Kreativität erfordern.

Kreativere, abwechslungsreichere Antworten. Ideal für kreatives Schreiben, Brainstorming und das Generieren vielfältiger Ideen.

Der Temperaturbereich (0-1 oder 0-2) variiert je nach ausgewähltem Modell.

API-Schlüssel

Ihr API-Schlüssel für den ausgewählten LLM-Anbieter. Dieser wird sicher gespeichert und für die Authentifizierung verwendet.

Tools

Tools erweitern die Fähigkeiten des Agenten durch externe API-Integrationen und Service-Verbindungen. Das Tool-System ermöglicht Funktionsaufrufe, sodass der Agent Operationen über die Texterstellung hinaus ausführen kann.

Tool-Integrationsprozess:

  1. Zugriff auf den Tools-Konfigurationsbereich innerhalb des Agent-Blocks
  2. Auswahl aus über 60 vorgefertigten Integrationen oder Definition benutzerdefinierter Funktionen
  3. Konfiguration von Authentifizierungsparametern und Betriebseinschränkungen

Verfügbare Tool-Kategorien:

  • Kommunikation: Gmail, Slack, Telegram, WhatsApp, Microsoft Teams
  • Datenquellen: Notion, Google Sheets, Airtable, Supabase, Pinecone
  • Webdienste: Firecrawl, Google Search, Exa AI, Browser-Automatisierung
  • Entwicklung: GitHub, Jira, Linear Repository- und Issue-Management
  • KI-Dienste: OpenAI, Perplexity, Hugging Face, ElevenLabs

Steuerung der Tool-Ausführung:

  • Auto: Modell bestimmt Tool-Aufruf basierend auf Kontext und Notwendigkeit
  • Required: Tool muss bei jeder Inferenzanfrage aufgerufen werden
  • None: Tool-Definition verfügbar, aber vom Modellkontext ausgeschlossen

Antwortformat

Der Parameter für das Antwortformat erzwingt eine strukturierte Ausgabegenerierung durch JSON-Schema-Validierung. Dies gewährleistet konsistente, maschinenlesbare Antworten, die vordefinierten Datenstrukturen entsprechen:

{
  "name": "user_analysis",
  "schema": {
    "type": "object",
    "properties": {
      "sentiment": {
        "type": "string",
        "enum": ["positive", "negative", "neutral"]
      },
      "confidence": {
        "type": "number",
        "minimum": 0,
        "maximum": 1
      }
    },
    "required": ["sentiment", "confidence"]
  }
}

Diese Konfiguration beschränkt die Ausgabe des Modells auf die Einhaltung des angegebenen Schemas, verhindert Freitext-Antworten und stellt eine strukturierte Datengenerierung sicher.

Zugriff auf Ergebnisse

Nach Abschluss eines Agenten können Sie auf seine Ausgaben zugreifen:

  • <agent.content>: Der Antworttext oder die strukturierten Daten des Agenten
  • <agent.tokens>: Token-Nutzungsstatistiken (Prompt, Completion, Gesamt)
  • <agent.tool_calls>: Details zu allen Tools, die der Agent während der Ausführung verwendet hat
  • <agent.cost>: Geschätzte Kosten des API-Aufrufs (falls verfügbar)

Erweiterte Funktionen

Memory + Agent: Gesprächsverlauf

Verwenden Sie einen MemoryBlock mit einer konsistenten id (zum Beispiel chat), um Nachrichten zwischen Durchläufen zu speichern und diesen Verlauf in den Prompt des Agenten einzubeziehen.

  • Fügen Sie die Nachricht des Benutzers vor dem Agenten hinzu
  • Lesen Sie den Gesprächsverlauf für den Kontext
  • Hängen Sie die Antwort des Agenten nach dessen Ausführung an
# 1) Add latest user message
- Memory (operation: add)
  id: chat
  role: user
  content: {{input}}

# 2) Load conversation history
- Memory (operation: get)
  id: chat

# 3) Run the agent with prior messages available
- Agent
  System Prompt: ...
  User Prompt: |
    Use the conversation so far:
    {{memory_get.memories}}
    Current user message: {{input}}

# 4) Store the agent reply
- Memory (operation: add)
  id: chat
  role: assistant
  content: {{agent.content}}

Siehe die MemoryBlock-Referenz für Details: /tools/memory.

Eingaben und Ausgaben

  • System Prompt: Anweisungen, die das Verhalten und die Rolle des Agenten definieren

  • User Prompt: Eingabetext oder -daten zur Verarbeitung

  • Model: KI-Modellauswahl (OpenAI, Anthropic, Google, etc.)

  • Temperature: Steuerung der Antwort-Zufälligkeit (0-2)

  • Tools: Array verfügbarer Tools für Funktionsaufrufe

  • Response Format: JSON-Schema für strukturierte Ausgabe

  • agent.content: Antworttext oder strukturierte Daten des Agenten

  • agent.tokens: Token-Nutzungsstatistik-Objekt

  • agent.tool_calls: Array mit Details zur Tool-Ausführung

  • agent.cost: Geschätzte API-Aufrufkosten (falls verfügbar)

  • Content: Primäre Antwortausgabe vom Agenten

  • Metadata: Nutzungsstatistiken und Ausführungsdetails

  • Access: Verfügbar in Blöcken nach dem Agenten

Beispielanwendungsfälle

Automatisierung des Kundendienstes

Szenario: Bearbeitung von Kundenanfragen mit Datenbankzugriff

  1. Benutzer reicht ein Support-Ticket über den API-Block ein
  2. Agent prüft Bestellungen/Abonnements in Postgres und durchsucht die Wissensdatenbank nach Anleitungen
  3. Falls eine Eskalation erforderlich ist, erstellt der Agent ein Linear-Ticket mit relevantem Kontext
  4. Agent verfasst eine klare E-Mail-Antwort
  5. Gmail sendet die Antwort an den Kunden
  6. Konversation wird im Speicher gesichert, um den Verlauf für zukünftige Nachrichten zu erhalten

Multi-Modell-Inhaltsanalyse

Szenario: Analyse von Inhalten mit verschiedenen KI-Modellen

  1. Funktionsblock verarbeitet hochgeladenes Dokument
  2. Agent mit GPT-4o führt technische Analyse durch
  3. Agent mit Claude analysiert Stimmung und Tonfall
  4. Funktionsblock kombiniert Ergebnisse für den Abschlussbericht

Werkzeuggestützter Rechercheassistent

Szenario: Rechercheassistent mit Websuche und Dokumentenzugriff

  1. Benutzeranfrage über Eingabe erhalten
  2. Agent durchsucht das Web mit dem Google Search-Tool
  3. Agent greift auf Notion-Datenbank für interne Dokumente zu
  4. Agent erstellt umfassenden Recherchebericht

Best Practices

  • Sei spezifisch in System-Prompts: Definiere die Rolle, den Tonfall und die Einschränkungen des Agenten klar. Je spezifischer deine Anweisungen sind, desto besser kann der Agent seinen vorgesehenen Zweck erfüllen.
  • Wähle die richtige Temperatureinstellung: Verwende niedrigere Temperatureinstellungen (0-0,3), wenn Genauigkeit wichtig ist, oder erhöhe die Temperatur (0,7-2,0) für kreativere oder abwechslungsreichere Antworten
  • Nutze Tools effektiv: Integriere Tools, die den Zweck des Agenten ergänzen und seine Fähigkeiten erweitern. Sei selektiv bei der Auswahl der Tools, um den Agenten nicht zu überfordern. Für Aufgaben mit wenig Überschneidung verwende einen anderen Agent-Block für die besten Ergebnisse.
Agent