MulaiMulai sekarang secara gratis

Quiz 4 - Question 2

A transformer model has 6 layers with four attention heads each, with each layer processing the input in 0.5 seconds. For this example, how long will it take for an input to go through the entire transformer model?

Latihan ini adalah bagian dari kursus

Google DeepMind: Discover The Transformer Architecture

Lihat Kursus

Latihan interaktif praktis

Ubah teori menjadi tindakan dengan salah satu latihan interaktif kami.

Mulai berolahraga