ComeçarComece de graça

Quiz 3 - Question 2

Using LoRA on a pre-trained foundation model like Gemma with a rank of 64 needs considerably more memory than using LoRA with a rank of 8.

Este exercício faz parte do curso

Google DeepMind: Fine-Tune Your Model

Ver curso

Exercício interativo prático

Transforme a teoria em ação com um de nossos exercícios interativos

Começar o exercício