1. Learn
  2. /
  3. Courses
  4. /
  5. PyTorchで学ぶIntroduction to Deep Learning

Connected

Exercise

ReLU を実装する

Rectified Linear Unit(ReLU)は、deep learning で広く使われる活性化関数で、vanishing gradients のような課題を緩和します。

この演習では、PyTorch で ReLU を実装し、正の値と負の値の両方に適用して結果を確認します。

torch.nn パッケージはすでに nn としてインポートされています。

Instructions 1/2

undefined XP
    1
    2
  • PyTorch で ReLU 関数を作成します。