La función de activación lineal rectificada
Como Dan te explicó en el vídeo, una «función de activación» es una función que se aplica en cada nodo. Convierte la entrada del nodo en alguna salida.
Se ha demostrado que la función de activación lineal rectificada (denominada ReLU) da lugar a redes de muy alto rendimiento. Esta función toma un único número como entrada y devuelve 0 si la entrada es negativa, y la entrada si es positiva.
Aquí tienes algunos ejemplos:
relu(3) = 3
relu(-3) = 0
Este ejercicio forma parte del curso
Introducción al aprendizaje profundo en Python
Instrucciones del ejercicio
Completa la definición de la función «
relu()
»:- Utiliza la función «
max()
» para calcular el valor de la salida de «relu()
».
- Utiliza la función «
Aplica la función
relu()
anode_0_input
para calcularnode_0_output
.Aplica la función
relu()
anode_1_input
para calcularnode_1_output
.
Ejercicio interactivo práctico
Prueba este ejercicio completando el código de muestra.
def relu(input):
'''Define your relu activation function here'''
# Calculate the value for the output of the relu function: output
output = max(____, ____)
# Return the value just calculated
return(output)
# Calculate node 0 value: node_0_output
node_0_input = (input_data * weights['node_0']).sum()
node_0_output = ____
# Calculate node 1 value: node_1_output
node_1_input = (input_data * weights['node_1']).sum()
node_1_output = ____
# Put node values into array: hidden_layer_outputs
hidden_layer_outputs = np.array([node_0_output, node_1_output])
# Calculate model output (do not apply relu)
model_output = (hidden_layer_outputs * weights['output']).sum()
# Print model output
print(model_output)