1. Lära sig
  2. /
  3. Courses
  4. /
  5. Kerasで学ぶMachine Translation

Connected

exercise

モデルの学習

この演習では、先ほど実装したモデルを学習させます。Google のエンコーダ・デコーダ型の機械翻訳モデルは、学習に 2~4 日かかったことをご存じでしたか?

この演習では、1500 文(en_text と fr_text)の小さなデータセットを使ってモデルを学習します。これだけでは十分な性能は期待できませんが、手順自体は同じです。より多くのデータで、より長く学習させればよいのです。すでにモデル nmt と、前の演習で実装した sents2seqs() 関数が用意されています。今回は性能を高めるために、エンコーダ側のテキストを反転して使用します。ここで、en_x はエンコーダ入力、de_x はデコーダ入力を表します。

Instruktioner

100 XP
  • sents2seqs() 関数を使って、エンコーダ入力(インデックス i から i+bsize の英語文)の単一バッチを取得します。入力は反転し、onehot エンコードする必要があります。
  • sents2seqs() 関数を使って、デコーダ出力(インデックス i から i+bsize のフランス語文)の単一バッチを取得します。入力は onehot エンコードする必要があります。
  • en_x と de_y を含む単一バッチのデータでモデルを学習させます。
  • bsize を batch_size に設定してモデルを評価し、en_x と de_y の評価指標を取得します。