Define métricas de evaluación
Estás desarrollando un servicio de traducción de idiomas en tiempo real para una aplicación de videoconferencias. Para monitorizar el entrenamiento, vas a definir métricas de evaluación para accuracy y F1 score, que miden el rendimiento general del modelo.
Las bibliotecas evaluate y numpy (np) ya se han importado.
Este ejercicio forma parte del curso
Entrenamiento eficiente de modelos de IA con PyTorch
Instrucciones del ejercicio
- Carga el
f1score usando la bibliotecaevaluate;accuracyya se ha cargado por ti. - Extrae
logitsylabelsde la entradaeval_predictions. - Convierte
logitsenpredictions. - Calcula el
f1score a partir depredictionsylabels.
Ejercicio interactivo práctico
Prueba este ejercicio y completa el código de muestra.
def compute_metrics(eval_predictions):
load_accuracy = evaluate.load("accuracy")
# Load the F1 score
load_f1 = ____("____")
# Extract logits and labels from eval_predictions
____, ____ = eval_predictions
# Convert logits to predictions
predictions = np.____(____, axis=-1)
accuracy = load_accuracy.compute(predictions=predictions, references=labels)["accuracy"]
# Compute the F1 score
f1 = ____.____(predictions=predictions, references=labels)["f1"]
return {"accuracy": accuracy, "f1": f1}