Capire le metriche per la generazione di testo
In PyBooks, il team ha appena valutato le prestazioni di un modello pre-addestrato usando il punteggio BLEU e ha ottenuto circa 0,082 e un rouge1_fmeasure di circa 0,2692. Questa metrica è un’indicazione di precision (quanti elementi selezionati sono pertinenti) e di recall (quanti elementi pertinenti vengono selezionati). Come interpreteresti questi punteggi in termini di prestazioni del modello?
Questo esercizio fa parte del corso
Deep Learning per il testo con PyTorch
Esercizio pratico interattivo
Passa dalla teoria alla pratica con uno dei nostri esercizi interattivi
Inizia esercizio