ComenzarEmpieza gratis

Utilizar Autoclases

Has visto cómo funcionan los tokenizadores y has explorado su papel en la preparación del texto para los modelos. Ahora, vamos a dar un paso más combinando los AutoModelos y los AutoTokenizers con la función pipeline(). Es un buen equilibrio entre control y comodidad.

Continúa con la tarea de análisis de sentimientos y combina las Autoclases con el módulo de canalización.

AutoModelForSequenceClassification, AutoTokenizer y pipeline de la biblioteca transformers ya se han importado para ti.

Este ejercicio forma parte del curso

Trabajar con Hugging Face

Ver curso

Instrucciones del ejercicio

  • Descarga el modelo y el tokenizador y guárdalos como my_model y my_tokenizer, respectivamente.
  • Crea la canalización y guárdala como my_pipeline.
  • Predice el resultado utilizando my_pipeline y guárdalo como output.

Ejercicio interactivo práctico

Prueba este ejercicio y completa el código de muestra.

# Download the model and tokenizer
my_model = ____.from_pretrained("distilbert-base-uncased-finetuned-sst-2-english")
my_tokenizer = ____.from_pretrained("distilbert-base-uncased-finetuned-sst-2-english")

# Create the pipeline
my_pipeline = pipeline(task="sentiment-analysis", ____=____, ____=____)

# Predict the sentiment
output = ____("This course is pretty good, I guess.")
print(f"Sentiment using AutoClasses: {output[0]['label']}")
Editar y ejecutar código