La función de activación lineal rectificada
Como te explicó Dan en el vídeo, una "función de activación" es una función que se aplica en cada nodo. Convierte la entrada del nodo en una salida.
Se ha demostrado que la función de activación lineal rectificada (llamada ReLU) da lugar a redes de muy alto rendimiento. Esta función toma un único número como entrada, devolviendo 0 si la entrada es negativa, y la entrada si la entrada es positiva.
He aquí algunos ejemplos:
relu(3) = 3
relu(-3) = 0
Este ejercicio forma parte del curso
Introducción al Aprendizaje Profundo en Python
Instrucciones de ejercicio
- Completa la definición de la función
relu()
:- Utiliza la función
max()
para calcular el valor de la salida derelu()
.
- Utiliza la función
- Aplica la función
relu()
anode_0_input
para calcularnode_0_output
. - Aplica la función
relu()
anode_1_input
para calcularnode_1_output
.
Ejercicio interactivo práctico
Pruebe este ejercicio completando este código de muestra.
def relu(input):
'''Define your relu activation function here'''
# Calculate the value for the output of the relu function: output
output = max(____, ____)
# Return the value just calculated
return(output)
# Calculate node 0 value: node_0_output
node_0_input = (input_data * weights['node_0']).sum()
node_0_output = ____
# Calculate node 1 value: node_1_output
node_1_input = (input_data * weights['node_1']).sum()
node_1_output = ____
# Put node values into array: hidden_layer_outputs
hidden_layer_outputs = np.array([node_0_output, node_1_output])
# Calculate model output (do not apply relu)
model_output = (hidden_layer_outputs * weights['output']).sum()
# Print model output
print(model_output)