Aan de slagGa gratis aan de slag

De Transformer ontrafeld

De transformer-architectuur heeft sequentiemodellering gerevolutioneerd en veel vernieuwingen in deep learning geïntegreerd, zoals positionele encodering, attention-mechanismen en nog veel meer.


Welke component van de transformer-architectuur is verantwoordelijk voor het vastleggen van informatie over de positie van elk token in de reeks?

Deze oefening maakt deel uit van de cursus

Transformermodels met PyTorch

Cursus bekijken

Praktische interactieve oefening

Zet theorie om in actie met een van onze interactieve oefeningen.

Begin met trainen