1. Learn
  2. /
  3. Courses
  4. /
  5. PyTorchで学ぶIntroduction to Deep Learning

Connected

Exercise

シグモイド関数とソフトマックス関数

深層学習で重要な活性化関数である sigmoid と softmax は、ニューラルネットワークの最終段でよく使われます。

  • Sigmoid は二値分類向けです
  • Softmax は多クラス分類向けです

ネットワークからの活性化前の出力テンソルが与えられているので、適切な活性化関数を適用して最終出力を得てください。

torch.nn はすでに nn としてインポートされています。

Instructions 1/2

undefined XP
  • 1
    • シグモイド関数を作成し、input_tensor に適用して二値分類タスクの確率を生成してください。
  • 2
    • ソフトマックス関数を作成し、input_tensor に適用して多クラス分類タスクの確率を生成してください。