CommencerCommencer gratuitement

Utiliser les AutoClasses

Vous avez vu comment fonctionnent les tokenizers et leur rôle dans la préparation du texte pour les modèles. Allons un peu plus loin en combinant les AutoModels et les AutoTokenizers avec la fonction pipeline(). C’est un bon compromis entre contrôle et simplicité.

Poursuivez la tâche d’analyse de sentiments et combinez les AutoClasses avec le module pipeline.

AutoModelForSequenceClassification, AutoTokenizer et pipeline de la bibliothèque transformers ont déjà été importés pour vous.

Cet exercice fait partie du cours

Travailler avec Hugging Face

Afficher le cours

Instructions

  • Téléchargez le modèle et le tokenizer et enregistrez-les sous my_model et my_tokenizer, respectivement.
  • Créez le pipeline et enregistrez-le sous my_pipeline.
  • Prédisez le résultat à l’aide de my_pipeline et enregistrez-le sous output.

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

# Download the model and tokenizer
my_model = ____.from_pretrained("distilbert-base-uncased-finetuned-sst-2-english")
my_tokenizer = ____.from_pretrained("distilbert-base-uncased-finetuned-sst-2-english")

# Create the pipeline
my_pipeline = pipeline(task="sentiment-analysis", ____=____, ____=____)

# Predict the sentiment
output = ____("This course is pretty good, I guess.")
print(f"Sentiment using AutoClasses: {output[0]['label']}")
Modifier et exécuter le code