Activatiefuncties vergelijken II
Wat je in de vorige oefening hebt gecodeerd, is uitgevoerd om de variabele activation_results te krijgen; dit keer zijn er 100 epochs gebruikt in plaats van 20. Zo heb je meer epochs om beter te vergelijken hoe de training per activatiefunctie verloopt.
Voor elke h_callback van elke activatiefunctie in activation_results:
h_callback.history['val_loss']is geëxtraheerd.h_callback.history['val_accuracy']is geëxtraheerd.
Beide zijn opgeslagen in twee woordenboeken: val_loss_per_function en val_acc_per_function.
Pandas is ook geladen als pd zodat je het kunt gebruiken. Laten we snel wat grafieken van de validatieverlies en -nauwkeurigheid maken!
Deze oefening maakt deel uit van de cursus
Introductie tot Deep Learning met Keras
Oefeninstructies
- Gebruik
pd.DataFrame()om een nieuw DataFrame te maken van het woordenboekval_loss_per_function. - Roep
plot()aan op het DataFrame. - Maak nog een pandas DataFrame van
val_acc_per_function. - Plot opnieuw het DataFrame.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Create a dataframe from val_loss_per_function
val_loss= ____.____(____)
# Call plot on the dataframe
____
plt.show()
# Create a dataframe from val_acc_per_function
val_acc = _____
# Call plot on the dataframe
____
plt.show()