Modelnauwkeurigheid evalueren op validatiegegevensset
Nu ben jij aan de beurt om de nauwkeurigheid van het model te monitoren met een validatiegegevensset. Een modeldefinitie is gegeven als model. Jij voegt de code toe om het te compileren en vervolgens te trainen. Je controleert de validatiescore in elke epoch.
Deze oefening maakt deel uit van de cursus
Introductie tot Deep Learning in Python
Oefeninstructies
- Compileer je model met
'adam'alsoptimizeren'categorical_crossentropy'alsloss. Om te zien welk deel van de voorspellingen correct is (deaccuracy) in elke epoch, specificeer je het extra keywordargumentmetrics=['accuracy']inmodel.compile(). - Train het model met de
predictorsentarget. Maak een validatiesplit van 30% (of0.3). Dit wordt in elke epoch gerapporteerd.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Save the number of columns in predictors: n_cols
n_cols = predictors.shape[1]
input_shape = (n_cols,)
# Specify the model
model = Sequential()
model.add(Dense(100, activation='relu', input_shape = input_shape))
model.add(Dense(100, activation='relu'))
model.add(Dense(2, activation='softmax'))
# Compile the model
____
# Fit the model
hist = ____