Uso de AutoClasses
Has visto cómo funcionan los tokenizadores y has explorado su función en la preparación de texto para modelos. Ahora, vamos a dar un paso más combinando AutoModels y AutoTokenizers con la función « pipeline()
». Es un buen equilibrio entre control y comodidad.
Continúa con la tarea de análisis de sentimientos y combina AutoClasses con el módulo pipeline.
AutoModelForSequenceClassification``AutoTokenizer
y pipeline
de la biblioteca transformers
ya se han importado por ti.
Este ejercicio forma parte del curso
Trabajar con Hugging Face
Instrucciones del ejercicio
- Descarga el modelo y el tokenizador y guárdalos como
my_model
ymy_tokenizer
, respectivamente. - Crea la canalización y guárdala como «
my_pipeline
». - Predice el resultado utilizando
my_pipeline
y guárdalo comooutput
.
Ejercicio interactivo práctico
Prueba este ejercicio y completa el código de muestra.
# Download the model and tokenizer
my_model = ____.from_pretrained("distilbert-base-uncased-finetuned-sst-2-english")
my_tokenizer = ____.from_pretrained("distilbert-base-uncased-finetuned-sst-2-english")
# Create the pipeline
my_pipeline = pipeline(task="sentiment-analysis", ____=____, ____=____)
# Predict the sentiment
output = ____("This course is pretty good, I guess.")
print(f"Sentiment using AutoClasses: {output[0]['label']}")