ComeçarComece de graça

Construa seu modelo LSTM

Você já preparou suas sequências de texto. É hora de construir seu modelo LSTM!

Lembre-se: suas sequências tinham 4 palavras cada; seu modelo será treinado nas três primeiras palavras de cada sequência para prever a 4ª. Você vai usar uma camada Embedding que essencialmente aprende a transformar palavras em vetores com significado. Esses vetores serão então passados para uma camada LSTM simples. Nossa saída é uma camada Dense com tantos neurônios quanto palavras no vocabulário e ativação softmax. Isso porque queremos obter a próxima palavra mais provável dentre todas as possíveis.

O tamanho do vocabulário (o número de palavras únicas) está armazenado em vocab_size.

Este exercício faz parte do curso

Introdução ao Deep Learning com Keras

Ver curso

Instruções do exercício

  • Importe as camadas Embedding, LSTM e Dense de tensorflow.keras layers.
  • Adicione uma camada Embedding() do tamanho do vocabulário, que transforma palavras em vetores de 8 números e recebe sequências de comprimento 3.
  • Adicione uma camada LSTM() com 32 neurônios.
  • Adicione uma camada oculta Dense() com 32 neurônios e uma camada de saída com vocab_size neurônios e softmax.

Exercício interativo prático

Experimente este exercício completando este código de exemplo.

# Import the Embedding, LSTM and Dense layer
from tensorflow.keras.____ import ____, ____, ____

model = Sequential()

# Add an Embedding layer with the right parameters
model.add(____(input_dim = ____, input_length = ____, output_dim = ____, ))

# Add a 32 unit LSTM layer
model.add(____(____))

# Add a hidden Dense layer of 32 units and an output layer of vocab_size with softmax
model.add(Dense(____, activation='relu'))
model.add(Dense(____, activation=____))
model.summary()
Editar e executar o código