LoslegenKostenlos loslegen

Textvervollständigung mit vortrainierten GPT-2-Modellen

Zurück bei PyBooks besteht dein aktuelles Projekt darin, auf Basis bestehender Geschichten fesselnde Erzählungen zu erstellen, um Kundinnen und Kunden zu begeistern und ihr Erlebnis zu verbessern. Dafür brauchst du ein leistungsfähiges Textgenerations-Tool, das nahtlos überzeugende Fortsetzungen erzeugt. Du wirst ein vortrainiertes Modell verwenden, um die Aufgabe zu erledigen.

Folgendes wurde für dich geladen: torch sowie GPT2Tokenizer,GPT2LMHeadModel aus transformers.

Diese Übung ist Teil des Kurses

Deep Learning für Text mit PyTorch

Kurs anzeigen

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Initialize the tokenizer
tokenizer = ____

# Initialize the pre-trained model
model = ____
Code bearbeiten und ausführen