Vorfahrt für sicheres Maschinelles Lernen: Zur Robustheit Neuronaler Netze
14. Juli 2021
Feindliche Angriffe auf Vorhersagemodelle des Maschinellen Lernens, zum Beispiel beim autonomen Fahren, könnten zu großem (Personen-)Schaden führen. Mit Hilfe von Abwehrmechanismen können ML-Modelle geschützt und ihre Robustheit gegenüber Angriffen erhöht werden....
Weiterlesen