ComeçarComece de graça

Completar texto com modelos GPT-2 pré-treinados

De volta à PyBooks, seu projeto atual envolve criar narrativas envolventes a partir de histórias existentes para engajar clientes e melhorar a experiência deles. Para isso, você precisa de uma ferramenta poderosa de geração de texto que consiga produzir continuações convincentes de forma fluida. Você vai usar um modelo pré-treinado para cumprir essa tarefa.

Os seguintes itens já foram carregados para você: torch e GPT2Tokenizer, GPT2LMHeadModel de transformers.

Este exercício faz parte do curso

Deep Learning para Texto com PyTorch

Ver curso

Exercício interativo prático

Experimente este exercício completando este código de exemplo.

# Initialize the tokenizer
tokenizer = ____

# Initialize the pre-trained model
model = ____
Editar e executar o código