CommencerCommencer gratuitement

Utilisation des classes automatiques

Vous avez vu comment fonctionnent les tokenizers et exploré leur rôle dans la préparation du texte pour les modèles. Allons plus loin en combinant les AutoModels et les AutoTokenizers avec la fonction pipeline(). C'est un bon équilibre entre contrôle et commodité.

Poursuivez la tâche d'analyse des sentiments et combinez les AutoClasses avec le module de pipeline.

AutoModelForSequenceClassification, AutoTokenizer et pipeline de la bibliothèque transformers ont déjà été importés pour vous.

Cet exercice fait partie du cours

Travailler avec Hugging Face

Afficher le cours

Instructions

  • Téléchargez le modèle et le tokenizer et enregistrez-les sous my_model et my_tokenizer, respectivement.
  • Créez le pipeline et sauvegardez-le sous my_pipeline.
  • Prédisez la sortie en utilisant my_pipeline et sauvegardez sous output.

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

# Download the model and tokenizer
my_model = ____.from_pretrained("distilbert-base-uncased-finetuned-sst-2-english")
my_tokenizer = ____.from_pretrained("distilbert-base-uncased-finetuned-sst-2-english")

# Create the pipeline
my_pipeline = pipeline(task="sentiment-analysis", ____=____, ____=____)

# Predict the sentiment
output = ____("This course is pretty good, I guess.")
print(f"Sentiment using AutoClasses: {output[0]['label']}")
Modifier et exécuter le code