LoslegenKostenlos loslegen

Füge Batch-Normalisierung zu deinem Netzwerk hinzu

Batch-Normalisierung ist eine andere Art der Regularisierung, bei der die Ausgänge einer Schicht neu skaliert werden, damit sie einen Mittelwert von 0 und eine Standardabweichung von 1 haben. In dieser Übung fügen wir dem konvolutionellen neuronalen Netzwerk, das wir in den vorherigen Übungen verwendet haben, eine Batch-Normalisierung hinzu:

  1. Faltung (15 Einheiten, Kernelgröße 2, „relu”-Aktivierung)

  2. Batch-Normalisierung

  3. Faltung (5 Einheiten, Kernelgröße 2, „relu”-Aktivierung)

  4. Flach machen

  5. Dicht (3 Einheiten, „softmax“-Aktivierung)

In deinem Arbeitsbereich gibt's jetzt die Objekte „Sequential- model ” zusammen mit „ Dense ”, „ Conv2D ”, „ Flatten ” und „ Dropout ”.

Diese Übung ist Teil des Kurses

Bildmodellierung mit Keras

Kurs anzeigen

Anleitung zur Übung

  • Füge die erste Faltungsschicht hinzu. Du kannst die in deinem Arbeitsbereich verfügbaren Objekte „ img_rows “ und „ img_cols “ verwenden, um die „ input_shape “ dieser Ebene zu definieren.
  • Füge eine Batch-Normalisierung für die Ausgänge der ersten Schicht hinzu.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Add a convolutional layer
____


# Add batch normalization layer
____

# Add another convolutional layer
model.add(Conv2D(5, kernel_size=2, activation='relu'))

# Flatten and feed to output layer
model.add(Flatten())
model.add(Dense(3, activation='softmax'))
Code bearbeiten und ausführen