Voorbeelden van tekstgeneratie
In deze oefening ga je experimenteren met twee voorgetrainde modellen voor tekstgeneratie.
Het eerste model genereert één zin gebaseerd op het personage Sheldon uit de tv-serie The Big Bang Theory, en het tweede model genereert een Shakespeare-gedicht tot maximaal 400 tekens.
De modellen zijn geladen in de variabelen sheldon_model en poem_model. Er zijn ook twee aangepaste functies beschikbaar om tekst te genereren: generate_sheldon_phrase() en generate_poem(). Beide krijgen het voorgetrainde model en een contextstring als parameters.
Deze oefening maakt deel uit van de cursus
Recurrent Neural Networks (RNN's) voor taalmodellen met Keras
Oefeninstructies
- Gebruik de vooraf gedefinieerde functie
generate_sheldon_phrase()met de parameterssheldon_modelensheldon_contexten sla de uitvoer op in de variabelesheldon_phrase. - Print de verkregen zin.
- Sla de gegeven tekst op in de variabele
poem_context. - Print het gedicht dat wordt gegenereerd door de functie
generate_poem()toe te passen met de parameterspoem_modelenpoem_context.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Context for Sheldon phrase
sheldon_context = "I’m not insane, my mother had me tested. "
# Generate one Sheldon phrase
sheldon_phrase = ____(sheldon_model, sheldon_context)
# Print the phrase
print(____)
# Context for poem
____ = "May thy beauty forever remain"
# Print the poem
print(generate_poem(____, poem_context))