Comprendre les métriques de génération de texte
Chez PyBooks, l’équipe vient d’évaluer les performances d’un modèle préentraîné avec le score BLEU et a obtenu un résultat d’environ 0,082 et un rouge1_fmeasure d’environ 0,2692. Cette métrique renseigne sur la précision (combien d’éléments sélectionnés sont pertinents) et le rappel (combien d’éléments pertinents sont sélectionnés). Comment interpréteriez-vous ces scores en termes de performance du modèle ?
Cet exercice fait partie du cours
Deep Learning pour le texte avec PyTorch
Exercice interactif pratique
Passez de la théorie à la pratique avec l’un de nos exercices interactifs
Commencer l’exercice