Faltungs-Generator
Definiere einen Faltungs-Generator nach den in dem letzten Video besprochenen DCGAN-Richtlinien.
torch.nn wurde der Einfachheit halber als nn vorab importiert. Außerdem steht dir eine benutzerdefinierte Funktion dc_gen_block() zur Verfügung, die einen Block aus transponierter Faltung, Batch-Norm und ReLU-Aktivierung zurückgibt. Diese Funktion dient als Grundlage für den Aufbau des Faltungs-Generators. Unten kannst du dir die Definition von dc_gen_block() ansehen.
def dc_gen_block(in_dim, out_dim, kernel_size, stride):
return nn.Sequential(
nn.ConvTranspose2d(in_dim, out_dim, kernel_size, stride=stride),
nn.BatchNorm2d(out_dim),
nn.ReLU()
)
Diese Übung ist Teil des Kurses
Deep Learning für Bilder mit PyTorch
Anleitung zur Übung
- Füge den letzten Generator-Block hinzu, der die Größe der Feature-Maps auf
256abbildet. - Füge eine transponierte Faltung mit der Ausgabegröße
3hinzu. - Füge die tanh-Aktivierung hinzu.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
class DCGenerator(nn.Module):
def __init__(self, in_dim, kernel_size=4, stride=2):
super(DCGenerator, self).__init__()
self.in_dim = in_dim
self.gen = nn.Sequential(
dc_gen_block(in_dim, 1024, kernel_size, stride),
dc_gen_block(1024, 512, kernel_size, stride),
# Add last generator block
____,
# Add transposed convolution
____(____, ____, kernel_size, stride=stride),
# Add tanh activation
____
)
def forward(self, x):
x = x.view(len(x), self.in_dim, 1, 1)
return self.gen(x)