ComeçarComece de graça

Implementação da Leaky ReLU

Embora a ReLU seja muito utilizada, ela define entradas negativas como 0, resultando em gradientes nulos para esses valores. Isso pode impedir o aprendizado de partes do modelo.

A Leaky ReLu supera essa limitação ao permitir pequenos gradientes para entradas negativas, controlados pelo parâmetro negative_slope. Em vez de 0, as entradas negativas são dimensionadas por esse pequeno valor, mantendo o aprendizado do modelo ativo.

Neste exercício, você deve implementar a função Leaky ReLu no PyTorch e praticar seu uso. O pacote torch, torch.nn e nn já foram importados.

Este exercício faz parte do curso

Introdução ao Aprendizado Profundo com o PyTorch

Ver curso

Exercício interativo prático

Experimente este exercício completando este código de exemplo.

# Create a leaky relu function in PyTorch
leaky_relu_pytorch = ____

x = torch.tensor(-2.0)
# Call the above function on the tensor x
output = ____
print(output)
Editar e executar o código