Aan de slagGa gratis aan de slag

Een sequentieel model compileren

In deze oefening ga je letters classificeren uit de Sign Language MNIST-gegevensset; je gebruikt daarbij een andere netwerkarchitectuur dan in de vorige oefening. Er zijn minder lagen, maar meer nodes. Je past ook dropout toe om overfitting te voorkomen. Tot slot compileer je het model met de adam-optimizer en de categorical_crossentropy-verliesfunctie. Je gebruikt ook een methode in keras om de architectuur van je model samen te vatten. Let op: keras is al voor je geïmporteerd uit tensorflow en een sequentieel keras-model is gedefinieerd als model.

Deze oefening maakt deel uit van de cursus

Introductie tot TensorFlow in Python

Cursus bekijken

Oefeninstructies

  • Stel in de eerste dense laag het aantal nodes in op 16, de activatie op sigmoid en de input_shape op (784,).
  • Pas dropout toe met een rate van 25% op de output van de eerste laag.
  • Stel de outputlaag in als dense, met 4 nodes, en gebruik een softmax-activatiefunctie.
  • Compileer het model met een adam-optimizer en categorical_crossentropy-verliesfunctie.

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

# Define the first dense layer
model.add(keras.layers.Dense(____, ____, ____))

# Apply dropout to the first layer's output
model.add(keras.layers.____(0.25))

# Define the output layer
____

# Compile the model
model.compile('____', loss='____')

# Print a model summary
print(model.summary())
Code bewerken en uitvoeren