Alterando os tamanhos de batch
Você viu que os modelos normalmente são treinados em batches de tamanho fixo. Quanto menor o batch, mais atualizações de pesos por época, mas isso custa um gradiente descendente mais instável — especialmente se o batch for pequeno demais e não representar bem todo o conjunto de treinamento.
Vamos ver como tamanhos de batch diferentes afetam a acurácia de um modelo simples de classificação binária que separa pontos vermelhos de azuis.
Você usará um batch de tamanho 1, atualizando os pesos uma vez por amostra do conjunto de treinamento a cada época. Depois, usará o conjunto de dados inteiro, atualizando os pesos apenas uma vez por época.
Este exercício faz parte do curso
Introdução ao Deep Learning com Keras
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Get a fresh new model with get_model
model = ____
# Train your model for 5 epochs with a batch size of 1
model.fit(X_train, y_train, epochs=____, ____=____)
print("\n The accuracy when using a batch of size 1 is: ",
model.evaluate(X_test, y_test)[1])