CommencerCommencer gratuitement

Comparaison de modèles sur des données d'évaluation étiquetées

Maintenant que vous pouvez classer les sentiments en masse, votre équipe souhaite évaluer quel modèle est le plus fiable. Vous comparerez deux modèles à l'aide d'un ensemble de données d'avis plus important et étiqueté, puis vous mesurerez leur précision.

Une liste d'texts s et leur true_labels sont préchargés pour vous.

Cet exercice fait partie du cours

Traitement du langage naturel (NLP) en Python

Afficher le cours

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

from transformers import pipeline
from sklearn.metrics import accuracy_score
# Load sentiment analysis models
pipe_a = pipeline(task="sentiment-analysis", ____)
pipe_b = pipeline(task="sentiment-analysis", ____)

# Generate predictions
preds_a = [____ for res in pipe_a(texts)]
preds_b = [____ for res in pipe_b(texts)]
Modifier et exécuter le code