Implantación de ReLU
La Unidad Lineal Rectificada (ReLU) es una función de activación muy utilizada en el aprendizaje profundo, que resuelve retos como el problema de los gradientes evanescentes.
En este ejercicio, implementarás ReLU en PyTorch, la aplicarás a valores positivos y negativos, y observarás los resultados.
Ya se ha importado torch.nn
como nn
.
Este ejercicio forma parte del curso
Introducción al aprendizaje profundo con PyTorch
Ejercicio interactivo práctico
Prueba este ejercicio completando el código de muestra.
# Create a ReLU function with PyTorch
relu_pytorch = ____