Aan de slagGa gratis aan de slag

Quiz 3 - Question 2

Using LoRA on a pre-trained foundation model like Gemma with a rank of 64 needs considerably more memory than using LoRA with a rank of 8.

Deze oefening maakt deel uit van de cursus

Google DeepMind: Fine-Tune Your Model

Cursus bekijken

Praktische interactieve oefening

Zet theorie om in actie met een van onze interactieve oefeningen.

Begin met trainen