Quiz 4 - Question 2
A transformer model has 6 layers with four attention heads each, with each layer processing the input in 0.5 seconds. For this example, how long will it take for an input to go through the entire transformer model?
Questo esercizio fa parte del corso
Google DeepMind: Discover The Transformer Architecture
Esercizio pratico interattivo
Passa dalla teoria alla pratica con uno dei nostri esercizi interattivi
Inizia esercizio