LoslegenKostenlos loslegen

Quiz 2 - Question 1

Imagine an attention mask that is a diagonal matrix (a matrix with ones along the diagonal and zeros everywhere else). If you applied this attention mask to the raw attention weights, which tokens could the model attend to when predicting the next token?

Diese Übung ist Teil des Kurses

Google DeepMind: Discover The Transformer Architecture

Kurs anzeigen

Interaktive Übung

In dieser interaktiven Übung kannst du die Theorie in die Praxis umsetzen.

Übung starten