Definir métricas de avaliação
Você está desenvolvendo um serviço de tradução de idiomas em tempo real em um aplicativo de videoconferência. Para monitorar o treinamento, você definirá métricas de avaliação para precisão e pontuação F1, que medem o desempenho geral do modelo.
As bibliotecas evaluate e numpy (np) foram pré-importadas.
Este exercício faz parte do curso
Treinamento eficiente de modelos de IA com PyTorch
Instruções do exercício
- Carregue a pontuação
f1usando a bibliotecaevaluate; aaccuracyfoi carregada para você. - Extraia
logitselabelsda entradaeval_predictions. - Converter
logitsparapredictions. - Calcule a pontuação
f1com base empredictionselabels.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
def compute_metrics(eval_predictions):
load_accuracy = evaluate.load("accuracy")
# Load the F1 score
load_f1 = ____("____")
# Extract logits and labels from eval_predictions
____, ____ = eval_predictions
# Convert logits to predictions
predictions = np.____(____, axis=-1)
accuracy = load_accuracy.compute(predictions=predictions, references=labels)["accuracy"]
# Compute the F1 score
f1 = ____.____(predictions=predictions, references=labels)["f1"]
return {"accuracy": accuracy, "f1": f1}