LoslegenKostenlos loslegen

Die Dense-Layer-Operation verwenden

Wir haben nun gesehen, wie man Dense-Layer in tensorflow mithilfe von Linearalgebra definiert. In dieser Übung überspringen wir die Linearalgebra und lassen keras die Details erledigen. So können wir das unten gezeigte Netzwerk mit 2 versteckten Schichten und 10 Merkmalen mit weniger Code konstruieren, als wir für das Netzwerk mit 1 versteckten Schicht und 3 Merkmalen brauchten.

This image depicts an neural network with 10 inputs nodes and 1 output node.

Um dieses Netzwerk zu bauen, müssen wir drei Dense-Layer definieren. Jeder nimmt die vorherige Schicht als Eingabe, multipliziert sie mit Gewichten und wendet eine Aktivierungsfunktion an. Beachte: Die Eingabedaten sind definiert und als 100×10-Tensor verfügbar: borrower_features. Außerdem ist das Modul keras.layers verfügbar.

Diese Übung ist Teil des Kurses

Einführung in TensorFlow mit Python

Kurs anzeigen

Anleitung zur Übung

  • Setze dense1 auf einen Dense-Layer mit 7 Ausgabeknoten und einer Sigmoid-Aktivierungsfunktion.
  • Definiere dense2 als Dense-Layer mit 3 Ausgabeknoten und einer Sigmoid-Aktivierungsfunktion.
  • Definiere predictions als Dense-Layer mit 1 Ausgabeknoten und einer Sigmoid-Aktivierungsfunktion.
  • Gib die Formen von dense1, dense2 und predictions in dieser Reihenfolge mit der Methode .shape aus. Warum haben diese Tensoren jeweils 100 Zeilen?

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Define the first dense layer
dense1 = keras.layers.Dense(____, activation='____')(borrower_features)

# Define a dense layer with 3 output nodes
dense2 = ____

# Define a dense layer with 1 output node
predictions = ____

# Print the shapes of dense1, dense2, and predictions
print('\n shape of dense1: ', dense1.shape)
print('\n shape of dense2: ', ____.shape)
print('\n shape of predictions: ', ____.shape)
Code bearbeiten und ausführen