Définir des recettes personnalisées
Vous affinez un modèle Llama préentraîné pour un client qui demande des configurations spécifiques. Votre plan est d’utiliser TorchTune pour le fine-tuning, et vous devez donc préparer un dictionnaire Python pour stocker les exigences de la recette personnalisée que vous utiliserez pour lancer la tâche de fine-tuning.
Cet exercice fait partie du cours
Ajustement fin avec Llama 3
Instructions
- Indiquez les exigences du client dans votre dictionnaire : commencez par ajouter le modèle
torchtune.models.llama3_2.llama3_2_1b. - Ajoutez une taille de lot de 8 et un périphérique GPU.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
config_dict = {
# Define the model
____,
# Define the batch size
____,
# Define the device type
____,
"epochs": 15,
"optimizer": {"_component_": "bitsandbytes.optim.PagedAdamW8bit", "lr": 3e-05},
"dataset": {"_component_": "custom_dataset"},
"output_dir": "/tmp/finetune_results"
}