Fungsi Aktivasi Linear Terkoreksi
Seperti yang dijelaskan Dan kepada Anda di video, sebuah "fungsi aktivasi" adalah fungsi yang diterapkan pada setiap node. Fungsi ini mengubah masukan node menjadi keluaran tertentu.
Fungsi aktivasi linear terkoreksi (disebut ReLU) terbukti menghasilkan jaringan dengan kinerja sangat tinggi. Fungsi ini menerima satu angka sebagai masukan, mengembalikan 0 jika masukannya negatif, dan mengembalikan nilai masukan itu sendiri jika masukannya positif.
Berikut beberapa contoh:
relu(3) = 3
relu(-3) = 0
Latihan ini adalah bagian dari kursus
Pengantar Deep Learning dengan Python
Petunjuk latihan
- Lengkapi definisi fungsi
relu():- Gunakan fungsi
max()untuk menghitung nilai keluaranrelu().
- Gunakan fungsi
- Terapkan fungsi
relu()padanode_0_inputuntuk menghitungnode_0_output. - Terapkan fungsi
relu()padanode_1_inputuntuk menghitungnode_1_output.
Latihan interaktif praktis
Cobalah latihan ini dengan menyelesaikan kode contoh berikut.
def relu(input):
'''Define your relu activation function here'''
# Calculate the value for the output of the relu function: output
output = max(____, ____)
# Return the value just calculated
return(output)
# Calculate node 0 value: node_0_output
node_0_input = (input_data * weights['node_0']).sum()
node_0_output = ____
# Calculate node 1 value: node_1_output
node_1_input = (input_data * weights['node_1']).sum()
node_1_output = ____
# Put node values into array: hidden_layer_outputs
hidden_layer_outputs = np.array([node_0_output, node_1_output])
# Calculate model output (do not apply relu)
model_output = (hidden_layer_outputs * weights['output']).sum()
# Print model output
print(model_output)