Definire ricette personalizzate
Stai eseguendo il fine-tuning di un modello Llama pre-addestrato per un cliente che richiede configurazioni specifiche. Hai deciso di usare TorchTune per il fine-tuning, quindi devi preparare un dizionario Python in cui memorizzare i requisiti per la ricetta personalizzata che userai per eseguire il job di fine-tuning.
Questo esercizio fa parte del corso
Fine-tuning con Llama 3
Istruzioni dell'esercizio
- Specifica i requisiti del cliente nel tuo dizionario: per prima cosa, aggiungi il modello
torchtune.models.llama3_2.llama3_2_1b. - Aggiungi una dimensione del batch pari a 8 e un dispositivo GPU.
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
config_dict = {
# Define the model
____,
# Define the batch size
____,
# Define the device type
____,
"epochs": 15,
"optimizer": {"_component_": "bitsandbytes.optim.PagedAdamW8bit", "lr": 3e-05},
"dataset": {"_component_": "custom_dataset"},
"output_dir": "/tmp/finetune_results"
}