CommencerCommencer gratuitement

Modifier la taille des lots

Vous avez vu que les modèles sont généralement entraînés par lots de taille fixe. Plus la taille du lot est petite, plus il y a de mises à jour des poids par époque, mais au prix d’une descente de gradient plus instable, en particulier si le lot est trop petit et non représentatif de l’ensemble d’entraînement.

Voyons comment différentes tailles de lot affectent la précision d’un simple modèle de classification binaire qui sépare des points rouges et bleus.

Vous utiliserez une taille de lot de un, ce qui mettra à jour les poids une fois par échantillon de votre ensemble d’entraînement à chaque époque. Puis vous utiliserez l’ensemble des données, en mettant à jour les poids une seule fois par époque.

Cet exercice fait partie du cours

Introduction au Deep Learning avec Keras

Afficher le cours

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

# Get a fresh new model with get_model
model = ____

# Train your model for 5 epochs with a batch size of 1
model.fit(X_train, y_train, epochs=____, ____=____)
print("\n The accuracy when using a batch of size 1 is: ",
      model.evaluate(X_test, y_test)[1])
Modifier et exécuter le code