Completar texto com modelos GPT-2 pré-treinados
De volta à PyBooks, seu projeto atual envolve criar narrativas envolventes a partir de histórias existentes para engajar clientes e melhorar a experiência deles. Para isso, você precisa de uma ferramenta poderosa de geração de texto que consiga produzir continuações convincentes de forma fluida. Você vai usar um modelo pré-treinado para cumprir essa tarefa.
Os seguintes itens já foram carregados para você: torch e GPT2Tokenizer, GPT2LMHeadModel de transformers.
Este exercício faz parte do curso
Deep Learning para Texto com PyTorch
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Initialize the tokenizer
tokenizer = ____
# Initialize the pre-trained model
model = ____