Sim

Évaluateur

Le bloc Évaluateur utilise l'IA pour noter et évaluer la qualité du contenu selon des métriques personnalisées. Parfait pour le contrôle qualité, les tests A/B et pour s'assurer que les résultats de l'IA répondent à des normes spécifiques.

Configuration du bloc Évaluateur

Options de configuration

Métriques d'évaluation

Définissez des métriques personnalisées pour évaluer le contenu. Chaque métrique comprend :

  • Nom : Un identifiant court pour la métrique
  • Description : Une explication détaillée de ce que mesure la métrique
  • Échelle : La plage numérique pour la notation (par ex., 1-5, 0-10)

Exemples de métriques :

Accuracy (1-5): How factually accurate is the content?
Clarity (1-5): How clear and understandable is the content?
Relevance (1-5): How relevant is the content to the original query?

Contenu

Le contenu à évaluer. Celui-ci peut être :

  • Fourni directement dans la configuration du bloc
  • Connecté depuis la sortie d'un autre bloc (généralement un bloc Agent)
  • Généré dynamiquement pendant l'exécution du workflow

Sélection du modèle

Choisissez un modèle d'IA pour effectuer l'évaluation :

  • OpenAI : GPT-4o, o1, o3, o4-mini, gpt-4.1
  • Anthropic : Claude 3.7 Sonnet
  • Google : Gemini 2.5 Pro, Gemini 2.0 Flash
  • Autres fournisseurs : Groq, Cerebras, xAI, DeepSeek
  • Modèles locaux : modèles compatibles avec Ollama ou VLLM

Utilisez des modèles avec de fortes capacités de raisonnement comme GPT-4o ou Claude 3.7 Sonnet pour de meilleurs résultats.

Clé API

Votre clé API pour le fournisseur de LLM sélectionné. Elle est stockée en toute sécurité et utilisée pour l'authentification.

Exemples de cas d'utilisation

Évaluation de la qualité du contenu - Évaluez le contenu avant publication

Agent (Generate) → Evaluator (Score) → Condition (Check threshold) → Publish or Revise

Tests A/B de contenu - Comparez plusieurs réponses générées par l'IA

Parallel (Variations) → Evaluator (Score Each) → Function (Select Best) → Response

Contrôle qualité du service client - Assurez-vous que les réponses respectent les normes de qualité

Agent (Support Response) → Evaluator (Score) → Function (Log) → Condition (Review if Low)

Sorties

  • <evaluator.content> : Résumé de l'évaluation avec les scores
  • <evaluator.model> : Modèle utilisé pour l'évaluation
  • <evaluator.tokens> : Statistiques d'utilisation des tokens
  • <evaluator.cost> : Coût estimé de l'évaluation

Bonnes pratiques

  • Utilisez des descriptions de métriques spécifiques : définissez clairement ce que mesure chaque métrique pour obtenir des évaluations plus précises
  • Choisissez des plages appropriées : sélectionnez des plages de notation qui offrent une granularité suffisante sans être trop complexes
  • Connectez avec des blocs Agent : utilisez des blocs Évaluateur pour évaluer les sorties des blocs Agent et créer des boucles de rétroaction
  • Utilisez des métriques cohérentes : pour une analyse comparative, maintenez des métriques cohérentes à travers des évaluations similaires
  • Combinez plusieurs métriques : utilisez plusieurs métriques pour obtenir une évaluation complète
On this page

On this page

Start building today
Trusted by over 60,000 builders.
Build Agentic workflows visually on a drag-and-drop canvas or with natural language.
Get started