1. 学ぶ
  2. /
  3. コース
  4. /
  5. Pythonで学ぶDeep Learning入門

Connected

演習

Rectified Linear(ReLU)活性化関数

動画でDanが説明したように、「活性化関数」は各ノードで適用され、ノードの入力を出力へと変換する関数です。

Rectified Linear(ReLU)活性化関数は、非常に高性能なネットワークにつながることが知られています。 この関数は単一の数値を入力に取り、入力が負なら 0 を、正ならその入力値を返します。

例をいくつか示します:
relu(3) = 3
relu(-3) = 0

指示

100 XP
  • relu() 関数の定義を完成させてください:
    • max() 関数を使って relu() の出力値を計算します。
  • relu() 関数を node_0_input に適用して node_0_output を計算します。
  • relu() 関数を node_1_input に適用して node_1_output を計算します。