ComeçarComece gratuitamente

Implementação do ReLU

A ReLU (Rectified Linear Unit, unidade linear retificada) é uma função de ativação amplamente utilizada na aprendizagem profunda, solucionando desafios como o problema de gradientes que desaparecem.

Neste exercício, você implementará o ReLU no PyTorch, aplicá-lo-á a valores positivos e negativos e observará os resultados.

torch.nn já foi importado para você como nn.

Este exercício faz parte do curso

Introdução à aprendizagem profunda com PyTorch

Ver Curso

Exercício interativo prático

Experimente este exercício preenchendo este código de exemplo.

# Create a ReLU function with PyTorch
relu_pytorch = ____
Editar e executar código