IniziaInizia gratis

Capire le metriche per la generazione di testo

In PyBooks, il team ha appena valutato le prestazioni di un modello pre-addestrato usando il punteggio BLEU e ha ottenuto circa 0,082 e un rouge1_fmeasure di circa 0,2692. Questa metrica è un’indicazione di precision (quanti elementi selezionati sono pertinenti) e di recall (quanti elementi pertinenti vengono selezionati). Come interpreteresti questi punteggi in termini di prestazioni del modello?

Questo esercizio fa parte del corso

Deep Learning per il testo con PyTorch

Visualizza il corso

Esercizio pratico interattivo

Passa dalla teoria alla pratica con uno dei nostri esercizi interattivi

Inizia esercizio