IniziaInizia gratis

Quiz 2 - Question 1

Imagine an attention mask that is a diagonal matrix (a matrix with ones along the diagonal and zeros everywhere else). If you applied this attention mask to the raw attention weights, which tokens could the model attend to when predicting the next token?

Questo esercizio fa parte del corso

Google DeepMind: Discover The Transformer Architecture

Visualizza il corso

Esercizio pratico interattivo

Passa dalla teoria alla pratica con uno dei nostri esercizi interattivi

Inizia esercizio