Complétion de texte avec des modèles GPT-2 préentraînés
De retour chez PyBooks, votre projet du moment consiste à créer des récits captivants à partir d’histoires existantes pour engager les clients et améliorer leur expérience. Pour cela, vous avez besoin d’un outil de génération de texte performant, capable de produire des continuations fluides et convaincantes. Vous allez utiliser un modèle préentraîné pour mener cette tâche à bien.
Les éléments suivants ont été chargés pour vous : torch et GPT2Tokenizer,GPT2LMHeadModel depuis transformers.
Cet exercice fait partie du cours
Deep Learning pour le texte avec PyTorch
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Initialize the tokenizer
tokenizer = ____
# Initialize the pre-trained model
model = ____