Utilisation des classes automatiques
Vous avez découvert le fonctionnement des tokeniseurs et leur rôle dans la préparation du texte pour les modèles. Maintenant, allons plus loin en combinant AutoModels et AutoTokenizers avec la fonction d'pipeline()
. C'est un bon compromis entre contrôle et commodité.
Veuillez poursuivre la tâche d'analyse des sentiments et associer AutoClasses au module pipeline.
AutoModelForSequenceClassification``AutoTokenizer
et pipeline
de la bibliothèque transformers
ont déjà été importés pour vous.
Cet exercice fait partie du cours
Travailler avec Hugging Face
Instructions
- Veuillez télécharger le modèle et le tokenizer, puis enregistrez-les respectivement sous les noms «
my_model
» et «my_tokenizer
». - Créez le pipeline et enregistrez-le sous le nom «
my_pipeline
». - Veuillez prédire le résultat à l'aide de l'
my_pipeline
, puis enregistrez-le sous le nomoutput
.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Download the model and tokenizer
my_model = ____.from_pretrained("distilbert-base-uncased-finetuned-sst-2-english")
my_tokenizer = ____.from_pretrained("distilbert-base-uncased-finetuned-sst-2-english")
# Create the pipeline
my_pipeline = pipeline(task="sentiment-analysis", ____=____, ____=____)
# Predict the sentiment
output = ____("This course is pretty good, I guess.")
print(f"Sentiment using AutoClasses: {output[0]['label']}")