ComenzarEmpieza gratis

Quiz 2 - Question 1

Imagine an attention mask that is a diagonal matrix (a matrix with ones along the diagonal and zeros everywhere else). If you applied this attention mask to the raw attention weights, which tokens could the model attend to when predicting the next token?

Este ejercicio forma parte del curso

Google DeepMind: Discover The Transformer Architecture

Ver curso

Ejercicio interactivo práctico

Pon en práctica la teoría con uno de nuestros ejercicios interactivos

Empezar ejercicio