ComenzarEmpieza gratis

Quiz 4 - Question 2

A transformer model has 6 layers with four attention heads each, with each layer processing the input in 0.5 seconds. For this example, how long will it take for an input to go through the entire transformer model?

Este ejercicio forma parte del curso

Google DeepMind: Discover The Transformer Architecture

Ver curso

Ejercicio interactivo práctico

Pon en práctica la teoría con uno de nuestros ejercicios interactivos

Empezar ejercicio