Füge Batch-Normalisierung zu deinem Netzwerk hinzu
Batch-Normalisierung ist eine andere Art der Regularisierung, bei der die Ausgänge einer Schicht neu skaliert werden, damit sie einen Mittelwert von 0 und eine Standardabweichung von 1 haben. In dieser Übung fügen wir dem konvolutionellen neuronalen Netzwerk, das wir in den vorherigen Übungen verwendet haben, eine Batch-Normalisierung hinzu:
Faltung (15 Einheiten, Kernelgröße 2, „relu”-Aktivierung)
Batch-Normalisierung
Faltung (5 Einheiten, Kernelgröße 2, „relu”-Aktivierung)
Flach machen
Dicht (3 Einheiten, „softmax“-Aktivierung)
In deinem Arbeitsbereich gibt's jetzt die Objekte „Sequential- model
” zusammen mit „ Dense
”, „ Conv2D
”, „ Flatten
” und „ Dropout
”.
Diese Übung ist Teil des Kurses
Bildmodellierung mit Keras
Anleitung zur Übung
- Füge die erste Faltungsschicht hinzu. Du kannst die in deinem Arbeitsbereich verfügbaren Objekte „
img_rows
“ und „img_cols
“ verwenden, um die „input_shape
“ dieser Ebene zu definieren. - Füge eine Batch-Normalisierung für die Ausgänge der ersten Schicht hinzu.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Add a convolutional layer
____
# Add batch normalization layer
____
# Add another convolutional layer
model.add(Conv2D(5, kernel_size=2, activation='relu'))
# Flatten and feed to output layer
model.add(Flatten())
model.add(Dense(3, activation='softmax'))