IniziaInizia gratis

Generazione di testo con RLHF

In questo esercizio lavorerai con un modello pre-addestrato con RLHF chiamato lvwerra/gpt2-imdb-pos-v2. È l’occasione per ripassare come costruire una pipeline di Hugging Face e usarla per testare un caso d’uso dei modelli addestrati con RLHF: generare recensioni di film.

Gli oggetti pipeline, AutoModelForCausalLM, and AutoTokenizer sono già stati importati da transformers. Il tokenizer è già stato caricato

Questo esercizio fa parte del corso

Reinforcement Learning from Human Feedback (RLHF)

Visualizza il corso

Istruzioni dell'esercizio

  • Imposta il nome del modello su lvwerra/gpt2-imdb-pos-v2, il modello pre-addestrato con RLHF.
  • Usa la funzione pipeline per creare una pipeline di text-generation.
  • Usa la pipeline di generazione del testo per generare una continuazione della recensione fornita.

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

# Set the model name
model_name = ____
model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

# Create a text generation pipeline
text_generator = pipeline(____, model=model, tokenizer=tokenizer)

review_prompt = "Surprisingly, the film"

# Generate a continuation of the review
generated_text = text_generator(____, max_length=10)
print(f"Generated Review Continuation: {generated_text[0]['generated_text']}")
Modifica ed esegui il codice