Erstellen eines Zug-DataLoaders
Nachdem wir unseren Datensatz aufgeteilt haben, müssen wir einen Datenlader definieren, der während des Trainings Daten in Stapeln bereitstellt. „ DataLoader
“ lädt Daten effizient in den Arbeitsspeicher und ermöglicht das Mischen für eine bessere Verallgemeinerung. In dieser Übung machst du die Methode „ train_dataloader
“ fertig.
Diese Übung ist Teil des Kurses
Skalierbare KI-Modelle mit PyTorch Lightning
Anleitung zur Übung
- Importiere die Datei „
DataLoader
“. - Gib einen „
DataLoader
“ zurück, der „self.train_data
“ lädt und Shuffling für eine bessere Verallgemeinerung aktiviert.
Interaktive Übung
Versuche dich an dieser Übung, indem du diesen Beispielcode vervollständigst.
# Import libraries
from torch.utils.data import ____
import lightning.pytorch as pl
class LoaderDataModule(pl.LightningDataModule):
def __init__(self):
super().__init__()
self.train_data = None
self.val_data = None
def setup(self, stage=None):
self.train_data, self.val_data = random_split(dataset, [80, 20])
def train_dataloader(self):
# Complete DataLoader
return ____(____, batch_size=16, shuffle=____)