Quiz 4 - Question 2
A transformer model has 6 layers with four attention heads each, with each layer processing the input in 0.5 seconds. For this example, how long will it take for an input to go through the entire transformer model?
Deze oefening maakt deel uit van de cursus
Google DeepMind: Discover The Transformer Architecture
Praktische interactieve oefening
Zet theorie om in actie met een van onze interactieve oefeningen.
Begin met trainen