Utiliser les AutoClasses
Vous avez vu comment fonctionnent les tokenizers et leur rôle dans la préparation du texte pour les modèles. Allons un peu plus loin en combinant les AutoModels et les AutoTokenizers avec la fonction pipeline(). C’est un bon compromis entre contrôle et simplicité.
Poursuivez la tâche d’analyse de sentiments et combinez les AutoClasses avec le module pipeline.
AutoModelForSequenceClassification, AutoTokenizer et pipeline de la bibliothèque transformers ont déjà été importés pour vous.
Cet exercice fait partie du cours
Travailler avec Hugging Face
Instructions
- Téléchargez le modèle et le tokenizer et enregistrez-les sous
my_modeletmy_tokenizer, respectivement. - Créez le pipeline et enregistrez-le sous
my_pipeline. - Prédisez le résultat à l’aide de
my_pipelineet enregistrez-le sousoutput.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Download the model and tokenizer
my_model = ____.from_pretrained("distilbert-base-uncased-finetuned-sst-2-english")
my_tokenizer = ____.from_pretrained("distilbert-base-uncased-finetuned-sst-2-english")
# Create the pipeline
my_pipeline = pipeline(task="sentiment-analysis", ____=____, ____=____)
# Predict the sentiment
output = ____("This course is pretty good, I guess.")
print(f"Sentiment using AutoClasses: {output[0]['label']}")