ComeçarComece gratuitamente

Crie seu modelo LSTM

Você já preparou suas sequências de texto. Chegou a hora de você construir seu modelo LSTM!

Lembre-se de que suas sequências tinham quatro palavras cada uma; seu modelo será treinado nas três primeiras palavras de cada sequência, prevendo a quarta. Você usará uma camada Embedding que essencialmente aprenderá a transformar palavras em vetores significativos. Esses vetores serão então passados para uma camada LSTM simples. Nosso resultado é uma camada Dense com tantos neurônios quanto as palavras do vocabulário e a ativação softmax. Isso se deve ao fato de que queremos obter a próxima palavra mais provável entre todas as palavras possíveis.

O tamanho do vocabulário de palavras (o número exclusivo de palavras) é armazenado em vocab_size.

Este exercício faz parte do curso

Introdução à aprendizagem profunda com o Keras

Ver Curso

Instruções de exercício

  • Importe as camadas Embedding, LSTM e Dense das camadas tensorflow.keras.
  • Adicione uma camada Embedding() do tamanho do vocabulário, que transformará as palavras em 8 vetores de números e receberá sequências de comprimento 3.
  • Adicione uma camada de 32 neurônios LSTM().
  • Adicione uma camada oculta Dense() de 32 neurônios e uma camada de saída de vocab_size neurônios com softmax.

Exercício interativo prático

Experimente este exercício preenchendo este código de exemplo.

# Import the Embedding, LSTM and Dense layer
from tensorflow.keras.____ import ____, ____, ____

model = Sequential()

# Add an Embedding layer with the right parameters
model.add(____(input_dim = ____, input_length = ____, output_dim = ____, ))

# Add a 32 unit LSTM layer
model.add(____(____))

# Add a hidden Dense layer of 32 units and an output layer of vocab_size with softmax
model.add(Dense(____, activation='relu'))
model.add(Dense(____, activation=____))
model.summary()
Editar e executar código