Crie seu modelo LSTM
Você já preparou suas sequências de texto. Chegou a hora de você construir seu modelo LSTM!
Lembre-se de que suas sequências tinham quatro palavras cada uma; seu modelo será treinado nas três primeiras palavras de cada sequência, prevendo a quarta. Você usará uma camada Embedding
que essencialmente aprenderá a transformar palavras em vetores significativos. Esses vetores serão então passados para uma camada LSTM
simples. Nosso resultado é uma camada Dense
com tantos neurônios quanto as palavras do vocabulário e a ativação softmax
. Isso se deve ao fato de que queremos obter a próxima palavra mais provável entre todas as palavras possíveis.
O tamanho do vocabulário de palavras (o número exclusivo de palavras) é armazenado em vocab_size
.
Este exercício faz parte do curso
Introdução à aprendizagem profunda com o Keras
Instruções de exercício
- Importe as camadas
Embedding
,LSTM
eDense
das camadastensorflow.keras
. - Adicione uma camada
Embedding()
do tamanho do vocabulário, que transformará as palavras em 8 vetores de números e receberá sequências de comprimento 3. - Adicione uma camada de 32 neurônios
LSTM()
. - Adicione uma camada oculta
Dense()
de 32 neurônios e uma camada de saída devocab_size
neurônios comsoftmax
.
Exercício interativo prático
Experimente este exercício preenchendo este código de exemplo.
# Import the Embedding, LSTM and Dense layer
from tensorflow.keras.____ import ____, ____, ____
model = Sequential()
# Add an Embedding layer with the right parameters
model.add(____(input_dim = ____, input_length = ____, output_dim = ____, ))
# Add a 32 unit LSTM layer
model.add(____(____))
# Add a hidden Dense layer of 32 units and an output layer of vocab_size with softmax
model.add(Dense(____, activation='relu'))
model.add(Dense(____, activation=____))
model.summary()