Définir des métriques d’évaluation
Vous développez un service de traduction de langues en temps réel pour une application de visioconférence. Pour suivre l’entraînement, vous allez définir des métriques d’évaluation pour l’exactitude (accuracy) et le score F1, qui mesurent les performances globales du modèle.
Les bibliothèques evaluate et numpy (np) ont déjà été importées.
Cet exercice fait partie du cours
Entraîner efficacement des modèles d’IA avec PyTorch
Instructions
- Chargez le score
f1avec la bibliothèqueevaluate;accuracya été chargé pour vous. - Extrayez
logitsetlabelsde l’entréeeval_predictions. - Convertissez
logitsenpredictions. - Calculez le score
f1à partir despredictionset deslabels.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
def compute_metrics(eval_predictions):
load_accuracy = evaluate.load("accuracy")
# Load the F1 score
load_f1 = ____("____")
# Extract logits and labels from eval_predictions
____, ____ = eval_predictions
# Convert logits to predictions
predictions = np.____(____, axis=-1)
accuracy = load_accuracy.compute(predictions=predictions, references=labels)["accuracy"]
# Compute the F1 score
f1 = ____.____(predictions=predictions, references=labels)["f1"]
return {"accuracy": accuracy, "f1": f1}