Aan de slagGa gratis aan de slag

PyTorch Transformers

Now you're familiar with the different components of the transformer architecture, it's time to define one! The torch.nn module, imported for you as nn, provides a really nice way to do this in just a few lines of code.

Deze oefening maakt deel uit van de cursus

Transformer Models with PyTorch

Cursus bekijken

Oefeninstructies

  • Define a transformer with 8 attention heads, 6 encoder and decoder layers, and for input sequence embeddings of length 1536.
  • Print the model object to view the model architecture.

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

# Define the transformer model
model = ____

# Print the model object
print(____)
Code bewerken en uitvoeren