CommencerCommencer gratuitement

Définir des recettes personnalisées

Vous affinez un modèle Llama préentraîné pour un client qui demande des configurations spécifiques. Votre plan est d’utiliser TorchTune pour le fine-tuning, et vous devez donc préparer un dictionnaire Python pour stocker les exigences de la recette personnalisée que vous utiliserez pour lancer la tâche de fine-tuning.

Cet exercice fait partie du cours

Ajustement fin avec Llama 3

Afficher le cours

Instructions

  • Indiquez les exigences du client dans votre dictionnaire : commencez par ajouter le modèle torchtune.models.llama3_2.llama3_2_1b.
  • Ajoutez une taille de lot de 8 et un périphérique GPU.

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

config_dict = {
    # Define the model
    ____,
    # Define the batch size
    ____,
    # Define the device type
    ____,
    "epochs": 15,
    "optimizer": {"_component_": "bitsandbytes.optim.PagedAdamW8bit", "lr": 3e-05},
    "dataset": {"_component_": "custom_dataset"},
    "output_dir": "/tmp/finetune_results"
}
Modifier et exécuter le code