Defina métricas de avaliação
Você está desenvolvendo um serviço de tradução de idiomas em tempo real para um aplicativo de videoconferência. Para monitorar o treinamento, você vai definir métricas de avaliação para acurácia e F1-score, que medem o desempenho geral do modelo.
As bibliotecas evaluate e numpy (np) já foram importadas.
Este exercício faz parte do curso
Treinamento Eficiente de Modelos de IA com PyTorch
Instruções do exercício
- Carregue o
f1score usando a bibliotecaevaluate;accuracyjá foi carregada para você. - Extraia
logitselabelsda entradaeval_predictions. - Converta
logitsempredictions. - Calcule o
f1score com base empredictionselabels.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
def compute_metrics(eval_predictions):
load_accuracy = evaluate.load("accuracy")
# Load the F1 score
load_f1 = ____("____")
# Extract logits and labels from eval_predictions
____, ____ = eval_predictions
# Convert logits to predictions
predictions = np.____(____, axis=-1)
accuracy = load_accuracy.compute(predictions=predictions, references=labels)["accuracy"]
# Compute the F1 score
f1 = ____.____(predictions=predictions, references=labels)["f1"]
return {"accuracy": accuracy, "f1": f1}