Düzeltilmiş Doğrusal Etkinleştirme Fonksiyonu
Videoda Dan'in açıkladığı gibi, bir "etkinleştirme fonksiyonu" her düğümde uygulanan bir fonksiyondur. Düğümün girdisini bir çıktıya dönüştürür.
Düzeltilmiş doğrusal etkinleştirme fonksiyonu (ReLU olarak adlandırılır) çok yüksek performanslı ağlara yol açtığı gösterilmiştir. Bu fonksiyon tek bir sayı alır; girdi negatifse 0, pozitifse girdinin kendisini döndürür.
İşte bazı örnekler:
relu(3) = 3
relu(-3) = 0
Bu egzersiz
Python ile Deep Learning'e Giriş
kursunun bir parçasıdırEgzersiz talimatları
relu()fonksiyonunun tanımını doldur:relu()çıktısını hesaplamak içinmax()fonksiyonunu kullan.
node_0_outputdeğerini hesaplamak içinrelu()fonksiyonununode_0_inputüzerine uygula.node_1_outputdeğerini hesaplamak içinrelu()fonksiyonununode_1_inputüzerine uygula.
Uygulamalı interaktif egzersiz
Bu örnek kodu tamamlayarak bu egzersizi bitirin.
def relu(input):
'''Define your relu activation function here'''
# Calculate the value for the output of the relu function: output
output = max(____, ____)
# Return the value just calculated
return(output)
# Calculate node 0 value: node_0_output
node_0_input = (input_data * weights['node_0']).sum()
node_0_output = ____
# Calculate node 1 value: node_1_output
node_1_input = (input_data * weights['node_1']).sum()
node_1_output = ____
# Put node values into array: hidden_layer_outputs
hidden_layer_outputs = np.array([node_0_output, node_1_output])
# Calculate model output (do not apply relu)
model_output = (hidden_layer_outputs * weights['output']).sum()
# Print model output
print(model_output)