Implementação da ReLU
A ReLU (Rectified Linear Unit, unidade linear retificada) é uma função de ativação muito utilizada no aprendizado profundo, solucionando desafios como o problema de gradientes que desaparecem.
Neste exercício, você deve implementar a ReLU no PyTorch, aplicá-la a valores positivos e negativos e observar os resultados.
O pacote torch.nn
já foi importado para você como nn
.
Este exercício faz parte do curso
Introdução ao Aprendizado Profundo com o PyTorch
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Create a ReLU function with PyTorch
relu_pytorch = ____