Aan de slagGa gratis aan de slag

Batch-groottes aanpassen

Je hebt gezien dat modellen meestal worden getraind in batches met een vaste grootte. Hoe kleiner de batchgrootte, hoe vaker de gewichten per epoch worden bijgewerkt, maar dat gaat ten koste van een onstabielere gradient descent. Zeker als de batch te klein is en niet representatief voor de volledige trainingsset.

Laten we bekijken hoe verschillende batchgroottes de nauwkeurigheid beïnvloeden van een eenvoudig binair classificatiemodel dat rode en blauwe punten van elkaar scheidt.

Je gebruikt eerst een batchgrootte van één, waarbij de gewichten één keer per sample in je trainingsset per epoch worden bijgewerkt. Daarna gebruik je de volledige gegevensset en werk je de gewichten maar één keer per epoch bij.

Deze oefening maakt deel uit van de cursus

Introductie tot Deep Learning met Keras

Cursus bekijken

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

# Get a fresh new model with get_model
model = ____

# Train your model for 5 epochs with a batch size of 1
model.fit(X_train, y_train, epochs=____, ____=____)
print("\n The accuracy when using a batch of size 1 is: ",
      model.evaluate(X_test, y_test)[1])
Code bewerken en uitvoeren