Construa seu modelo LSTM
Você já preparou suas sequências de texto. É hora de construir seu modelo LSTM!
Lembre-se: suas sequências tinham 4 palavras cada; seu modelo será treinado nas três primeiras palavras de cada sequência para prever a 4ª. Você vai usar uma camada Embedding que essencialmente aprende a transformar palavras em vetores com significado. Esses vetores serão então passados para uma camada LSTM simples. Nossa saída é uma camada Dense com tantos neurônios quanto palavras no vocabulário e ativação softmax. Isso porque queremos obter a próxima palavra mais provável dentre todas as possíveis.
O tamanho do vocabulário (o número de palavras únicas) está armazenado em vocab_size.
Este exercício faz parte do curso
Introdução ao Deep Learning com Keras
Instruções do exercício
- Importe as camadas
Embedding,LSTMeDensedetensorflow.keraslayers. - Adicione uma camada
Embedding()do tamanho do vocabulário, que transforma palavras em vetores de 8 números e recebe sequências de comprimento 3. - Adicione uma camada
LSTM()com 32 neurônios. - Adicione uma camada oculta
Dense()com 32 neurônios e uma camada de saída comvocab_sizeneurônios esoftmax.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Import the Embedding, LSTM and Dense layer
from tensorflow.keras.____ import ____, ____, ____
model = Sequential()
# Add an Embedding layer with the right parameters
model.add(____(input_dim = ____, input_length = ____, output_dim = ____, ))
# Add a 32 unit LSTM layer
model.add(____(____))
# Add a hidden Dense layer of 32 units and an output layer of vocab_size with softmax
model.add(Dense(____, activation='relu'))
model.add(Dense(____, activation=____))
model.summary()