CommencerCommencer gratuitement

Complétion de texte avec des modèles GPT-2 préentraînés

De retour chez PyBooks, votre projet du moment consiste à créer des récits captivants à partir d’histoires existantes pour engager les clients et améliorer leur expérience. Pour cela, vous avez besoin d’un outil de génération de texte performant, capable de produire des continuations fluides et convaincantes. Vous allez utiliser un modèle préentraîné pour mener cette tâche à bien.

Les éléments suivants ont été chargés pour vous : torch et GPT2Tokenizer,GPT2LMHeadModel depuis transformers.

Cet exercice fait partie du cours

Deep Learning pour le texte avec PyTorch

Afficher le cours

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

# Initialize the tokenizer
tokenizer = ____

# Initialize the pre-trained model
model = ____
Modifier et exécuter le code