Tekstaanvulling met voorgetrainde GPT-2-modellen
Terug bij PyBooks werk je aan een project om boeiende verhalen te maken op basis van bestaande verhalen, zodat klanten worden betrokken en hun ervaring beter wordt. Daarvoor heb je een krachtige tool voor tekstgeneratie nodig die naadloos overtuigende vervolgen kan schrijven. Je gaat hiervoor een voorgetraind model gebruiken.
Het volgende is alvast voor je geladen: torch en GPT2Tokenizer,GPT2LMHeadModel uit transformers.
Deze oefening maakt deel uit van de cursus
Deep Learning voor tekst met PyTorch
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Initialize the tokenizer
tokenizer = ____
# Initialize the pre-trained model
model = ____