MulaiMulai sekarang secara gratis

Fungsi Aktivasi Linear Terkoreksi

Seperti yang dijelaskan Dan kepada Anda di video, sebuah "fungsi aktivasi" adalah fungsi yang diterapkan pada setiap node. Fungsi ini mengubah masukan node menjadi keluaran tertentu.

Fungsi aktivasi linear terkoreksi (disebut ReLU) terbukti menghasilkan jaringan dengan kinerja sangat tinggi. Fungsi ini menerima satu angka sebagai masukan, mengembalikan 0 jika masukannya negatif, dan mengembalikan nilai masukan itu sendiri jika masukannya positif.

Berikut beberapa contoh:
relu(3) = 3
relu(-3) = 0

Latihan ini adalah bagian dari kursus

Pengantar Deep Learning dengan Python

Lihat Kursus

Petunjuk latihan

  • Lengkapi definisi fungsi relu():
    • Gunakan fungsi max() untuk menghitung nilai keluaran relu().
  • Terapkan fungsi relu() pada node_0_input untuk menghitung node_0_output.
  • Terapkan fungsi relu() pada node_1_input untuk menghitung node_1_output.

Latihan interaktif praktis

Cobalah latihan ini dengan menyelesaikan kode contoh berikut.

def relu(input):
    '''Define your relu activation function here'''
    # Calculate the value for the output of the relu function: output
    output = max(____, ____)
    
    # Return the value just calculated
    return(output)

# Calculate node 0 value: node_0_output
node_0_input = (input_data * weights['node_0']).sum()
node_0_output = ____

# Calculate node 1 value: node_1_output
node_1_input = (input_data * weights['node_1']).sum()
node_1_output = ____

# Put node values into array: hidden_layer_outputs
hidden_layer_outputs = np.array([node_0_output, node_1_output])

# Calculate model output (do not apply relu)
model_output = (hidden_layer_outputs * weights['output']).sum()

# Print model output
print(model_output)
Edit dan Jalankan Kode