Generazione di testo con RLHF
In questo esercizio lavorerai con un modello pre-addestrato con RLHF chiamato lvwerra/gpt2-imdb-pos-v2. È l’occasione per ripassare come costruire una pipeline di Hugging Face e usarla per testare un caso d’uso dei modelli addestrati con RLHF: generare recensioni di film.
Gli oggetti pipeline, AutoModelForCausalLM, and AutoTokenizer sono già stati importati da transformers. Il tokenizer è già stato caricato
Questo esercizio fa parte del corso
Reinforcement Learning from Human Feedback (RLHF)
Istruzioni dell'esercizio
- Imposta il nome del modello su
lvwerra/gpt2-imdb-pos-v2, il modello pre-addestrato con RLHF. - Usa la funzione
pipelineper creare una pipeline ditext-generation. - Usa la pipeline di generazione del testo per generare una continuazione della recensione fornita.
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
# Set the model name
model_name = ____
model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
# Create a text generation pipeline
text_generator = pipeline(____, model=model, tokenizer=tokenizer)
review_prompt = "Surprisingly, the film"
# Generate a continuation of the review
generated_text = text_generator(____, max_length=10)
print(f"Generated Review Continuation: {generated_text[0]['generated_text']}")