LoslegenKostenlos loslegen

Faltungs-Generator

Definiere einen Faltungs-Generator nach den in dem letzten Video besprochenen DCGAN-Richtlinien.

torch.nn wurde der Einfachheit halber als nn vorab importiert. Außerdem steht dir eine benutzerdefinierte Funktion dc_gen_block() zur Verfügung, die einen Block aus transponierter Faltung, Batch-Norm und ReLU-Aktivierung zurückgibt. Diese Funktion dient als Grundlage für den Aufbau des Faltungs-Generators. Unten kannst du dir die Definition von dc_gen_block() ansehen.

def dc_gen_block(in_dim, out_dim, kernel_size, stride):
    return nn.Sequential(
        nn.ConvTranspose2d(in_dim, out_dim, kernel_size, stride=stride),
        nn.BatchNorm2d(out_dim),
        nn.ReLU()
    )

Diese Übung ist Teil des Kurses

Deep Learning für Bilder mit PyTorch

Kurs anzeigen

Anleitung zur Übung

  • Füge den letzten Generator-Block hinzu, der die Größe der Feature-Maps auf 256 abbildet.
  • Füge eine transponierte Faltung mit der Ausgabegröße 3 hinzu.
  • Füge die tanh-Aktivierung hinzu.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

class DCGenerator(nn.Module):
    def __init__(self, in_dim, kernel_size=4, stride=2):
        super(DCGenerator, self).__init__()
        self.in_dim = in_dim
        self.gen = nn.Sequential(
            dc_gen_block(in_dim, 1024, kernel_size, stride),
            dc_gen_block(1024, 512, kernel_size, stride),
            # Add last generator block
            ____,
            # Add transposed convolution
            ____(____, ____, kernel_size, stride=stride),
            # Add tanh activation
            ____
        )

    def forward(self, x):
        x = x.view(len(x), self.in_dim, 1, 1)
        return self.gen(x)
Code bearbeiten und ausführen