Sim

Agent

Le bloc Agent sert d'interface entre votre flux de travail et les grands modĂšles de langage (LLM). Il exĂ©cute des requĂȘtes d'infĂ©rence auprĂšs de divers fournisseurs d'IA, traite les entrĂ©es en langage naturel selon des instructions dĂ©finies, et gĂ©nĂšre des sorties structurĂ©es ou non structurĂ©es pour une utilisation en aval.

Configuration du bloc Agent

Aperçu

Le bloc Agent vous permet de :

Traiter le langage naturel : analyser les entrées utilisateur et générer des réponses contextuelles

Exécuter des tùches basées sur l'IA : effectuer des analyses de contenu, de la génération et de la prise de décision

Appeler des outils externes : accéder aux API, bases de données et services pendant le traitement

Générer des sorties structurées : renvoyer des données JSON correspondant à vos exigences de schéma

Options de configuration

Prompt systĂšme

Le prompt systĂšme Ă©tablit les paramĂštres opĂ©rationnels et les contraintes comportementales de l'agent. Cette configuration dĂ©finit le rĂŽle de l'agent, sa mĂ©thodologie de rĂ©ponse et les limites de traitement pour toutes les requĂȘtes entrantes.

You are a helpful assistant that specializes in financial analysis.
Always provide clear explanations and cite sources when possible.
When responding to questions about investments, include risk disclaimers.

Prompt utilisateur

Le prompt utilisateur représente les données d'entrée principales pour le traitement d'inférence. Ce paramÚtre accepte du texte en langage naturel ou des données structurées que l'agent analysera pour y répondre. Les sources d'entrée comprennent :

  • Configuration statique : saisie directe de texte spĂ©cifiĂ©e dans la configuration du bloc
  • EntrĂ©e dynamique : donnĂ©es transmises depuis des blocs en amont via des interfaces de connexion
  • GĂ©nĂ©ration Ă  l'exĂ©cution : contenu gĂ©nĂ©rĂ© par programmation pendant l'exĂ©cution du flux de travail

Sélection du modÚle

Le bloc Agent prend en charge plusieurs fournisseurs de LLM via une interface d'inférence unifiée. Les modÚles disponibles comprennent :

ModÚles OpenAI : GPT-5, GPT-4o, o1, o3, o4-mini, gpt-4.1 (inférence basée sur API) ModÚles Anthropic : Claude 3.7 Sonnet (inférence basée sur API) ModÚles Google : Gemini 2.5 Pro, Gemini 2.0 Flash (inférence basée sur API) Fournisseurs alternatifs : Groq, Cerebras, xAI, DeepSeek (inférence basée sur API) Déploiement local : modÚles compatibles Ollama (inférence auto-hébergée)

Température

ContrÎlez la créativité et l'aléatoire des réponses :

RĂ©ponses plus dĂ©terministes et ciblĂ©es. IdĂ©al pour les tĂąches factuelles, le support client et les situations oĂč la prĂ©cision est essentielle.

Équilibre entre crĂ©ativitĂ© et concentration. Convient aux applications gĂ©nĂ©rales qui nĂ©cessitent Ă  la fois prĂ©cision et crĂ©ativitĂ©.

Réponses plus créatives et variées. Parfait pour l'écriture créative, le brainstorming et la génération d'idées diverses.

La plage de température (0-1 ou 0-2) varie selon le modÚle sélectionné.

Clé API

Votre clé API pour le fournisseur de LLM sélectionné. Elle est stockée de maniÚre sécurisée et utilisée pour l'authentification.

Outils

Les outils étendent les capacités de l'agent grùce à des intégrations d'API externes et des connexions à des services. Le systÚme d'outils permet l'appel de fonctions, permettant à l'agent d'exécuter des opérations au-delà de la génération de texte.

Processus d'intégration d'outils :

  1. Accédez à la section de configuration des outils dans le bloc Agent
  2. Sélectionnez parmi plus de 60 intégrations préconstruites ou définissez des fonctions personnalisées
  3. Configurez les paramÚtres d'authentification et les contraintes opérationnelles

Catégories d'outils disponibles :

  • Communication : Gmail, Slack, Telegram, WhatsApp, Microsoft Teams
  • Sources de donnĂ©es : Notion, Google Sheets, Airtable, Supabase, Pinecone
  • Services web : Firecrawl, Google Search, Exa AI, automatisation de navigateur
  • DĂ©veloppement : GitHub, Jira, gestion des dĂ©pĂŽts et des problĂšmes Linear
  • Services IA : OpenAI, Perplexity, Hugging Face, ElevenLabs

ContrÎle d'exécution des outils :

  • Auto : Le modĂšle dĂ©termine l'invocation d'outils selon le contexte et la nĂ©cessitĂ©
  • Obligatoire : L'outil doit ĂȘtre appelĂ© lors de chaque demande d'infĂ©rence
  • Aucun : DĂ©finition d'outil disponible mais exclue du contexte du modĂšle

Format de réponse

Le paramÚtre Format de réponse impose la génération de sorties structurées via la validation par schéma JSON. Cela garantit des réponses cohérentes et lisibles par machine qui se conforment aux structures de données prédéfinies :

{
  "name": "user_analysis",
  "schema": {
    "type": "object",
    "properties": {
      "sentiment": {
        "type": "string",
        "enum": ["positive", "negative", "neutral"]
      },
      "confidence": {
        "type": "number",
        "minimum": 0,
        "maximum": 1
      }
    },
    "required": ["sentiment", "confidence"]
  }
}

Cette configuration contraint la sortie du modĂšle Ă  respecter le schĂ©ma spĂ©cifiĂ©, empĂȘchant les rĂ©ponses en texte libre et assurant la gĂ©nĂ©ration de donnĂ©es structurĂ©es.

AccÚs aux résultats

Une fois qu'un agent a terminé, vous pouvez accéder à ses sorties :

  • <agent.content> : Le texte de rĂ©ponse de l'agent ou les donnĂ©es structurĂ©es
  • <agent.tokens> : Statistiques d'utilisation des tokens (prompt, complĂ©tion, total)
  • <agent.tool_calls> : DĂ©tails des outils que l'agent a utilisĂ©s pendant l'exĂ©cution
  • <agent.cost> : CoĂ»t estimĂ© de l'appel API (si disponible)

Fonctionnalités avancées

Mémoire + Agent : historique de conversation

Utilisez un bloc Memory avec un id cohérent (par exemple, chat) pour conserver les messages entre les exécutions, et inclure cet historique dans le prompt de l'Agent.

  • Ajoutez le message de l'utilisateur avant l'Agent
  • Lisez l'historique de conversation pour le contexte
  • Ajoutez la rĂ©ponse de l'Agent aprĂšs son exĂ©cution
# 1) Add latest user message
- Memory (operation: add)
  id: chat
  role: user
  content: {{input}}

# 2) Load conversation history
- Memory (operation: get)
  id: chat

# 3) Run the agent with prior messages available
- Agent
  System Prompt: ...
  User Prompt: |
    Use the conversation so far:
    {{memory_get.memories}}
    Current user message: {{input}}

# 4) Store the agent reply
- Memory (operation: add)
  id: chat
  role: assistant
  content: {{agent.content}}

Consultez la référence du bloc Memory pour plus de détails : /tools/memory.

Entrées et sorties

  • Prompt systĂšme : Instructions dĂ©finissant le comportement et le rĂŽle de l'agent

  • Prompt utilisateur : Texte d'entrĂ©e ou donnĂ©es Ă  traiter

  • ModĂšle : SĂ©lection du modĂšle d'IA (OpenAI, Anthropic, Google, etc.)

  • TempĂ©rature : ContrĂŽle de l'alĂ©atoire des rĂ©ponses (0-2)

  • Outils : Tableau d'outils disponibles pour l'appel de fonctions

  • Format de rĂ©ponse : SchĂ©ma JSON pour une sortie structurĂ©e

  • agent.content : Texte de rĂ©ponse de l'agent ou donnĂ©es structurĂ©es

  • agent.tokens : Objet de statistiques d'utilisation des tokens

  • agent.tool_calls : Tableau des dĂ©tails d'exĂ©cution des outils

  • agent.cost : CoĂ»t estimĂ© de l'appel API (si disponible)

  • Contenu : Sortie de rĂ©ponse principale de l'agent

  • MĂ©tadonnĂ©es : Statistiques d'utilisation et dĂ©tails d'exĂ©cution

  • AccĂšs : Disponible dans les blocs aprĂšs l'agent

Exemples de cas d'utilisation

Automatisation du support client

Scénario : traiter les demandes des clients avec accÚs à la base de données

  1. L'utilisateur soumet un ticket de support via le bloc API
  2. L'agent vérifie les commandes/abonnements dans Postgres et recherche des conseils dans la base de connaissances
  3. Si une escalade est nécessaire, l'agent crée un ticket Linear avec le contexte pertinent
  4. L'agent rédige une réponse par e-mail claire
  5. Gmail envoie la réponse au client
  6. La conversation est enregistrée dans Memory pour conserver l'historique des messages futurs

Analyse de contenu multi-modĂšles

Scénario : analyser du contenu avec différents modÚles d'IA

  1. Le bloc de fonction traite le document téléchargé
  2. L'agent avec GPT-4o effectue une analyse technique
  3. L'agent avec Claude analyse le sentiment et le ton
  4. Le bloc de fonction combine les résultats pour le rapport final

Assistant de recherche alimenté par des outils

Scénario : assistant de recherche avec recherche web et accÚs aux documents

  1. RequĂȘte de l'utilisateur reçue via l'entrĂ©e
  2. L'agent effectue des recherches sur le web Ă  l'aide de l'outil Google Search
  3. L'agent accÚde à la base de données Notion pour les documents internes
  4. L'agent compile un rapport de recherche complet

Bonnes pratiques

  • Soyez prĂ©cis dans les instructions systĂšme : dĂ©finissez clairement le rĂŽle, le ton et les limites de l'agent. Plus vos instructions sont prĂ©cises, mieux l'agent pourra remplir sa fonction prĂ©vue.
  • Choisissez le bon rĂ©glage de tempĂ©rature : utilisez des rĂ©glages de tempĂ©rature plus bas (0-0,3) lorsque la prĂ©cision est importante, ou augmentez la tempĂ©rature (0,7-2,0) pour des rĂ©ponses plus crĂ©atives ou variĂ©es
  • Utilisez efficacement les outils : intĂ©grez des outils qui complĂštent l'objectif de l'agent et amĂ©liorent ses capacitĂ©s. Soyez sĂ©lectif quant aux outils que vous fournissez pour Ă©viter de surcharger l'agent. Pour les tĂąches avec peu de chevauchement, utilisez un autre bloc Agent pour obtenir les meilleurs rĂ©sultats.
Agent