Quiz 4 - Question 2
A transformer model has 6 layers with four attention heads each, with each layer processing the input in 0.5 seconds. For this example, how long will it take for an input to go through the entire transformer model?
Este exercício faz parte do curso
Google DeepMind: Discover The Transformer Architecture
Exercício interativo prático
Transforme a teoria em ação com um de nossos exercícios interativos
Começar o exercício