ComenzarEmpieza gratis

Implantación de ReLU

La Unidad Lineal Rectificada (ReLU) es una función de activación muy utilizada en el aprendizaje profundo, que resuelve retos como el problema de los gradientes evanescentes.

En este ejercicio, implementarás ReLU en PyTorch, la aplicarás a valores positivos y negativos, y observarás los resultados.

Ya se ha importado torch.nn como nn.

Este ejercicio forma parte del curso

Introducción al aprendizaje profundo con PyTorch

Ver curso

Ejercicio interactivo práctico

Prueba este ejercicio completando el código de muestra.

# Create a ReLU function with PyTorch
relu_pytorch = ____
Editar y ejecutar código