CommencerCommencer gratuitement

Comprendre les métriques de génération de texte

Chez PyBooks, l’équipe vient d’évaluer les performances d’un modèle préentraîné avec le score BLEU et a obtenu un résultat d’environ 0,082 et un rouge1_fmeasure d’environ 0,2692. Cette métrique renseigne sur la précision (combien d’éléments sélectionnés sont pertinents) et le rappel (combien d’éléments pertinents sont sélectionnés). Comment interpréteriez-vous ces scores en termes de performance du modèle ?

Cet exercice fait partie du cours

Deep Learning pour le texte avec PyTorch

Afficher le cours

Exercice interactif pratique

Passez de la théorie à la pratique avec l’un de nos exercices interactifs

Commencer l’exercice