IniziaInizia gratis

Quiz 4 - Question 2

A transformer model has 6 layers with four attention heads each, with each layer processing the input in 0.5 seconds. For this example, how long will it take for an input to go through the entire transformer model?

Questo esercizio fa parte del corso

Google DeepMind: Discover The Transformer Architecture

Visualizza il corso

Esercizio pratico interattivo

Passa dalla teoria alla pratica con uno dei nostri esercizi interattivi

Inizia esercizio