LoslegenKostenlos loslegen

Einteilung adversarieller Angriffe

Stell dir vor, du bist Data Scientist und willst Machine-Learning-Modelle vor bösartigen Angriffen schützen. Dafür musst du die verschiedenen Angriffsarten kennen, auf die du und dein Modell stoßen könnten. Dieses Bewusstsein für Schwachstellen hilft dir, deine Modelle gegen solche Bedrohungen abzusichern.

Diese Übung ist Teil des Kurses

Deep Learning für Text mit PyTorch

Kurs anzeigen

Interaktive Übung

In dieser interaktiven Übung kannst du die Theorie in die Praxis umsetzen.

Übung starten