CommencerCommencer gratuitement

Quiz 3 - Question 2

Using LoRA on a pre-trained foundation model like Gemma with a rank of 64 needs considerably more memory than using LoRA with a rank of 8.

Cet exercice fait partie du cours

Google DeepMind: Fine-Tune Your Model

Afficher le cours

Exercice interactif pratique

Passez de la théorie à la pratique avec l’un de nos exercices interactifs

Commencer l’exercice