Évaluateur
Le bloc Évaluateur utilise l'IA pour noter et évaluer la qualité du contenu à l'aide de métriques d'évaluation personnalisables que vous définissez. Parfait pour le contrôle qualité, les tests A/B et pour garantir que vos résultats d'IA répondent à des normes spécifiques.

Aperçu
Le bloc Évaluateur vous permet de :
Noter la qualité du contenu : utilisez l'IA pour évaluer le contenu selon des métriques personnalisées avec des scores numériques
Définir des métriques personnalisées : créez des critères d'évaluation spécifiques adaptés à votre cas d'utilisation
Automatiser le contrôle qualité : créez des flux de travail qui évaluent et filtrent automatiquement le contenu
Suivre les performances : surveillez les améliorations et la cohérence dans le temps grâce à une notation objective
Comment ça fonctionne
Le bloc Évaluateur traite le contenu via une évaluation basée sur l'IA :
- Réception du contenu - Prend le contenu d'entrée des blocs précédents dans votre flux de travail
- Application des métriques - Évalue le contenu selon vos métriques personnalisées définies
- Génération des scores - Le modèle d'IA attribue des scores numériques pour chaque métrique
- Fourniture d'un résumé - Renvoie une évaluation détaillée avec des scores et des explications
Options de configuration
Métriques d'évaluation
Définissez des métriques personnalisées pour évaluer le contenu. Chaque métrique comprend :
- Nom : un identifiant court pour la métrique
- Description : une explication détaillée de ce que mesure la métrique
- Plage : la plage numérique pour la notation (par ex., 1-5, 0-10)
Exemples de métriques :
Accuracy (1-5): How factually accurate is the content?
Clarity (1-5): How clear and understandable is the content?
Relevance (1-5): How relevant is the content to the original query?
Contenu
Le contenu à évaluer. Cela peut être :
- Fourni directement dans la configuration du bloc
- Connecté depuis la sortie d'un autre bloc (généralement un bloc Agent)
- Généré dynamiquement pendant l'exécution du workflow
Sélection du modèle
Choisissez un modèle d'IA pour effectuer l'évaluation :
OpenAI : GPT-4o, o1, o3, o4-mini, gpt-4.1 Anthropic : Claude 3.7 Sonnet Google : Gemini 2.5 Pro, Gemini 2.0 Flash Autres fournisseurs : Groq, Cerebras, xAI, DeepSeek Modèles locaux : Tout modèle fonctionnant sur Ollama
Recommandation : utilisez des modèles avec de fortes capacités de raisonnement comme GPT-4o ou Claude 3.7 Sonnet pour des évaluations plus précises.
Clé API
Votre clé API pour le fournisseur LLM sélectionné. Elle est stockée de manière sécurisée et utilisée pour l'authentification.
Comment ça fonctionne
- Le bloc Évaluateur prend le contenu fourni et vos métriques personnalisées
- Il génère une invite spécialisée qui demande au LLM d'évaluer le contenu
- L'invite inclut des directives claires sur la façon de noter chaque métrique
- Le LLM évalue le contenu et renvoie des scores numériques pour chaque métrique
- Le bloc Évaluateur formate ces scores sous forme de sortie structurée pour utilisation dans votre workflow
Exemples de cas d'utilisation
Évaluation de la qualité du contenu
Scénario : évaluer la qualité d'un article de blog avant publication
- Le bloc Agent génère le contenu de l'article
- L'Évaluateur évalue la précision, la lisibilité et l'engagement
- Le bloc Condition vérifie si les scores atteignent les seuils minimums
- Scores élevés → Publication, Scores faibles → Révision et nouvel essai
Test A/B de contenu
Scénario : comparer plusieurs réponses générées par l'IA
- Le bloc parallèle génère plusieurs variantes de réponses
- L'évaluateur note chaque variante sur la clarté et la pertinence
- Le bloc de fonction sélectionne la réponse ayant obtenu le meilleur score
- Le bloc de réponse renvoie le meilleur résultat
Contrôle qualité du service client
Scénario : s'assurer que les réponses du support répondent aux normes de qualité
- L'agent de support génère une réponse à la demande du client
- L'évaluateur note l'utilité, l'empathie et la précision
- Les scores sont enregistrés pour la formation et le suivi des performances
- Les scores faibles déclenchent un processus de révision humaine
Entrées et sorties
Contenu : le texte ou les données structurées à évaluer
Métriques d'évaluation : critères personnalisés avec plages de notation
Modèle : modèle d'IA pour l'analyse d'évaluation
Clé API : authentification pour le fournisseur LLM sélectionné
evaluator.content : résumé de l'évaluation
evaluator.model : modèle utilisé pour l'évaluation
evaluator.tokens : statistiques d'utilisation des tokens
evaluator.cost : résumé des coûts pour l'appel d'évaluation
Scores des métriques : scores numériques pour chaque métrique définie
Résumé de l'évaluation : évaluation détaillée avec explications
Accès : disponible dans les blocs après l'évaluateur
Bonnes pratiques
- Utilisez des descriptions de métriques spécifiques : définissez clairement ce que mesure chaque métrique pour obtenir des évaluations plus précises
- Choisissez des plages appropriées : sélectionnez des plages de notation qui offrent une granularité suffisante sans être trop complexes
- Connectez avec des blocs Agent : utilisez des blocs Évaluateur pour évaluer les sorties des blocs Agent et créer des boucles de rétroaction
- Utilisez des métriques cohérentes : pour une analyse comparative, maintenez des métriques cohérentes entre les évaluations similaires
- Combinez plusieurs métriques : utilisez plusieurs métriques pour obtenir une évaluation complète