Implementação do ReLU
A ReLU (Rectified Linear Unit, unidade linear retificada) é uma função de ativação amplamente utilizada na aprendizagem profunda, solucionando desafios como o problema de gradientes que desaparecem.
Neste exercício, você implementará o ReLU no PyTorch, aplicá-lo-á a valores positivos e negativos e observará os resultados.
torch.nn
já foi importado para você como nn
.
Este exercício faz parte do curso
Introdução à aprendizagem profunda com PyTorch
Exercício interativo prático
Experimente este exercício preenchendo este código de exemplo.
# Create a ReLU function with PyTorch
relu_pytorch = ____