Quiz 3 - Question 2
Using LoRA on a pre-trained foundation model like Gemma with a rank of 64 needs considerably more memory than using LoRA with a rank of 8.
Bu egzersiz
Google DeepMind: Fine-Tune Your Model
kursunun bir parçasıdırUygulamalı interaktif egzersiz
İnteraktif egzersizlerimizden biriyle teoriyi pratiğe dökün
Egzersizi başlat