Een sequentieel model compileren
In deze oefening ga je letters classificeren uit de Sign Language MNIST-gegevensset; je gebruikt daarbij een andere netwerkarchitectuur dan in de vorige oefening. Er zijn minder lagen, maar meer nodes. Je past ook dropout toe om overfitting te voorkomen. Tot slot compileer je het model met de adam-optimizer en de categorical_crossentropy-verliesfunctie. Je gebruikt ook een methode in keras om de architectuur van je model samen te vatten. Let op: keras is al voor je geïmporteerd uit tensorflow en een sequentieel keras-model is gedefinieerd als model.
Deze oefening maakt deel uit van de cursus
Introductie tot TensorFlow in Python
Oefeninstructies
- Stel in de eerste dense laag het aantal nodes in op 16, de activatie op
sigmoiden deinput_shapeop (784,). - Pas dropout toe met een rate van 25% op de output van de eerste laag.
- Stel de outputlaag in als dense, met 4 nodes, en gebruik een
softmax-activatiefunctie. - Compileer het model met een
adam-optimizer encategorical_crossentropy-verliesfunctie.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Define the first dense layer
model.add(keras.layers.Dense(____, ____, ____))
# Apply dropout to the first layer's output
model.add(keras.layers.____(0.25))
# Define the output layer
____
# Compile the model
model.compile('____', loss='____')
# Print a model summary
print(model.summary())