CommencerCommencer gratuitement

Utilisation des classes automatiques

Vous avez découvert le fonctionnement des tokeniseurs et leur rôle dans la préparation du texte pour les modèles. Maintenant, allons plus loin en combinant AutoModels et AutoTokenizers avec la fonction d'pipeline(). C'est un bon compromis entre contrôle et commodité.

Veuillez poursuivre la tâche d'analyse des sentiments et associer AutoClasses au module pipeline.

AutoModelForSequenceClassification``AutoTokenizer et pipeline de la bibliothèque transformers ont déjà été importés pour vous.

Cet exercice fait partie du cours

Travailler avec Hugging Face

Afficher le cours

Instructions

  • Veuillez télécharger le modèle et le tokenizer, puis enregistrez-les respectivement sous les noms « my_model » et « my_tokenizer ».
  • Créez le pipeline et enregistrez-le sous le nom « my_pipeline ».
  • Veuillez prédire le résultat à l'aide de l'my_pipeline, puis enregistrez-le sous le nom output.

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

# Download the model and tokenizer
my_model = ____.from_pretrained("distilbert-base-uncased-finetuned-sst-2-english")
my_tokenizer = ____.from_pretrained("distilbert-base-uncased-finetuned-sst-2-english")

# Create the pipeline
my_pipeline = pipeline(task="sentiment-analysis", ____=____, ____=____)

# Predict the sentiment
output = ____("This course is pretty good, I guess.")
print(f"Sentiment using AutoClasses: {output[0]['label']}")
Modifier et exécuter le code