1. 学ぶ
  2. /
  3. コース
  4. /
  5. Nhập môn Deep Learning với Python

Connected

演習

Hàm kích hoạt tuyến tính chỉnh lưu

Như Dan đã giải thích trong video, một "hàm kích hoạt" là hàm được áp dụng tại mỗi node. Nó chuyển đổi đầu vào của node thành một đầu ra nào đó.

Hàm kích hoạt tuyến tính chỉnh lưu (gọi là ReLU) đã được chứng minh là giúp mạng đạt hiệu năng rất cao. Hàm này nhận một số làm đầu vào, trả về 0 nếu đầu vào âm, và trả về chính đầu vào nếu đầu vào dương.

Ví dụ:
relu(3) = 3
relu(-3) = 0

指示

100 XP
  • Điền định nghĩa cho hàm relu():
    • Dùng hàm max() để tính giá trị đầu ra của relu().
  • Áp dụng hàm relu() lên node_0_input để tính node_0_output.
  • Áp dụng hàm relu() lên node_1_input để tính node_1_output.