Feindliche Angriffe auf Vorhersagemodelle des Maschinellen Lernens, zum Beispiel beim autonomen Fahren, könnten zu großem (Personen-)Schaden führen. Mit Hilfe von Abwehrmechanismen können ML-Modelle geschützt und ihre Robustheit gegenüber Angriffen erhöht werden.