Einteilung adversarieller Angriffe
Stell dir vor, du bist Data Scientist und willst Machine-Learning-Modelle vor bösartigen Angriffen schützen. Dafür musst du die verschiedenen Angriffsarten kennen, auf die du und dein Modell stoßen könnten. Dieses Bewusstsein für Schwachstellen hilft dir, deine Modelle gegen solche Bedrohungen abzusichern.
Diese Übung ist Teil des Kurses
Deep Learning für Text mit PyTorch
Interaktive Übung
In dieser interaktiven Übung kannst du die Theorie in die Praxis umsetzen.
Übung starten