Classificatie van adversarial attacks
Stel je voor: je bent een Data Scientist met de missie om machine learning-modellen te beschermen tegen kwaadaardige aanvallen. Daarvoor moet je de verschillende aanvallen kennen die jij en je model kunnen tegenkomen. Als je deze kwetsbaarheden kent, kun je je modellen beschermen tegen zulke adversarial dreigingen.
Deze oefening maakt deel uit van de cursus
Deep Learning voor tekst met PyTorch
Praktische interactieve oefening
Zet theorie om in actie met een van onze interactieve oefeningen.
Begin met trainen