ComeçarComece de graça

Implementação da ReLU

A ReLU (Rectified Linear Unit, unidade linear retificada) é uma função de ativação muito utilizada no aprendizado profundo, solucionando desafios como o problema de gradientes que desaparecem.

Neste exercício, você deve implementar a ReLU no PyTorch, aplicá-la a valores positivos e negativos e observar os resultados.

O pacote torch.nn já foi importado para você como nn.

Este exercício faz parte do curso

Introdução ao Aprendizado Profundo com o PyTorch

Ver curso

Exercício interativo prático

Experimente este exercício completando este código de exemplo.

# Create a ReLU function with PyTorch
relu_pytorch = ____
Editar e executar o código