Hieronder vindt u de opdrachten voor de workshop AI Security. Klik op een opdracht om te beginnen.
-
01
→Introductie tot AI-kwetsbaarhedenVerkenning van veelvoorkomende aanvalsvectoren in AI-systemen
-
02
→Prompt Injection AanvallenHands-on oefening met het misbruiken van taalmodellen via kwaadaardige invoer
-
03
→Model Evasion & Adversarial InputsTechnieken om AI-classificatoren te misleiden met aangepaste invoerdata
-
04
→Data PoisoningHoe aanvallers trainingsdata manipuleren om modellen te compromitteren
-
05
→Beveiliging van AI-pipelinesBest practices voor het beveiligen van productie-AI-omgevingen