Textvervollständigung mit vortrainierten GPT-2-Modellen
Zurück bei PyBooks besteht dein aktuelles Projekt darin, auf Basis bestehender Geschichten fesselnde Erzählungen zu erstellen, um Kundinnen und Kunden zu begeistern und ihr Erlebnis zu verbessern. Dafür brauchst du ein leistungsfähiges Textgenerations-Tool, das nahtlos überzeugende Fortsetzungen erzeugt. Du wirst ein vortrainiertes Modell verwenden, um die Aufgabe zu erledigen.
Folgendes wurde für dich geladen: torch sowie GPT2Tokenizer,GPT2LMHeadModel aus transformers.
Diese Übung ist Teil des Kurses
Deep Learning für Text mit PyTorch
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Initialize the tokenizer
tokenizer = ____
# Initialize the pre-trained model
model = ____