MulaiMulai sekarang secara gratis

Quiz 3 - Question 2

Using LoRA on a pre-trained foundation model like Gemma with a rank of 64 needs considerably more memory than using LoRA with a rank of 8.

Latihan ini adalah bagian dari kursus

Google DeepMind: Fine-Tune Your Model

Lihat Kursus

Latihan interaktif praktis

Ubah teori menjadi tindakan dengan salah satu latihan interaktif kami.

Mulai berolahraga