LoslegenKostenlos loslegen

Quiz 4 - Question 2

A transformer model has 6 layers with four attention heads each, with each layer processing the input in 0.5 seconds. For this example, how long will it take for an input to go through the entire transformer model?

Diese Übung ist Teil des Kurses

Google DeepMind: Discover The Transformer Architecture

Kurs anzeigen

Interaktive Übung

In dieser interaktiven Übung kannst du die Theorie in die Praxis umsetzen.

Übung starten