IniziaInizia gratis

Definire ricette personalizzate

Stai eseguendo il fine-tuning di un modello Llama pre-addestrato per un cliente che richiede configurazioni specifiche. Hai deciso di usare TorchTune per il fine-tuning, quindi devi preparare un dizionario Python in cui memorizzare i requisiti per la ricetta personalizzata che userai per eseguire il job di fine-tuning.

Questo esercizio fa parte del corso

Fine-tuning con Llama 3

Visualizza il corso

Istruzioni dell'esercizio

  • Specifica i requisiti del cliente nel tuo dizionario: per prima cosa, aggiungi il modello torchtune.models.llama3_2.llama3_2_1b.
  • Aggiungi una dimensione del batch pari a 8 e un dispositivo GPU.

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

config_dict = {
    # Define the model
    ____,
    # Define the batch size
    ____,
    # Define the device type
    ____,
    "epochs": 15,
    "optimizer": {"_component_": "bitsandbytes.optim.PagedAdamW8bit", "lr": 3e-05},
    "dataset": {"_component_": "custom_dataset"},
    "output_dir": "/tmp/finetune_results"
}
Modifica ed esegui il codice