Geração de texto com RLHF
Neste exercício, você vai trabalhar com um modelo pré-treinado com RLHF chamado lvwerra/gpt2-imdb-pos-v2. Esta é uma oportunidade para revisar como construir um pipeline do Hugging Face e usá-lo para testar um caso de uso de modelos treinados com RLHF: gerar críticas de filmes.
Os objetos pipeline, AutoModelForCausalLM, and AutoTokenizer já foram importados de transformers. O tokenizer já foi carregado
Este exercício faz parte do curso
Reinforcement Learning from Human Feedback (RLHF)
Instruções do exercício
- Defina o nome do modelo como
lvwerra/gpt2-imdb-pos-v2, o modelo pré-treinado com RLHF. - Use a função
pipelinepara criar um pipeline detext-generation. - Use o pipeline de geração de texto para gerar uma continuação da crítica fornecida.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Set the model name
model_name = ____
model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
# Create a text generation pipeline
text_generator = pipeline(____, model=model, tokenizer=tokenizer)
review_prompt = "Surprisingly, the film"
# Generate a continuation of the review
generated_text = text_generator(____, max_length=10)
print(f"Generated Review Continuation: {generated_text[0]['generated_text']}")