Quiz 4 - Question 2
A transformer model has 6 layers with four attention heads each, with each layer processing the input in 0.5 seconds. For this example, how long will it take for an input to go through the entire transformer model?
Cet exercice fait partie du cours
Google DeepMind: Discover The Transformer Architecture
Exercice interactif pratique
Passez de la théorie à la pratique avec l’un de nos exercices interactifs
Commencer l’exercice