BaşlayınÜcretsiz Başlayın

Düzeltilmiş Doğrusal Etkinleştirme Fonksiyonu

Videoda Dan'in açıkladığı gibi, bir "etkinleştirme fonksiyonu" her düğümde uygulanan bir fonksiyondur. Düğümün girdisini bir çıktıya dönüştürür.

Düzeltilmiş doğrusal etkinleştirme fonksiyonu (ReLU olarak adlandırılır) çok yüksek performanslı ağlara yol açtığı gösterilmiştir. Bu fonksiyon tek bir sayı alır; girdi negatifse 0, pozitifse girdinin kendisini döndürür.

İşte bazı örnekler:
relu(3) = 3
relu(-3) = 0

Bu egzersiz

Python ile Deep Learning'e Giriş

kursunun bir parçasıdır
Kursu Görüntüle

Egzersiz talimatları

  • relu() fonksiyonunun tanımını doldur:
    • relu() çıktısını hesaplamak için max() fonksiyonunu kullan.
  • node_0_output değerini hesaplamak için relu() fonksiyonunu node_0_input üzerine uygula.
  • node_1_output değerini hesaplamak için relu() fonksiyonunu node_1_input üzerine uygula.

Uygulamalı interaktif egzersiz

Bu örnek kodu tamamlayarak bu egzersizi bitirin.

def relu(input):
    '''Define your relu activation function here'''
    # Calculate the value for the output of the relu function: output
    output = max(____, ____)
    
    # Return the value just calculated
    return(output)

# Calculate node 0 value: node_0_output
node_0_input = (input_data * weights['node_0']).sum()
node_0_output = ____

# Calculate node 1 value: node_1_output
node_1_input = (input_data * weights['node_1']).sum()
node_1_output = ____

# Put node values into array: hidden_layer_outputs
hidden_layer_outputs = np.array([node_0_output, node_1_output])

# Calculate model output (do not apply relu)
model_output = (hidden_layer_outputs * weights['output']).sum()

# Print model output
print(model_output)
Kodu Düzenle ve Çalıştır