Anwendung Vorfahrt für sicheres Maschinelles Lernen: Zur Robustheit Neuronaler Netze 14. Juli 2021 Neuronale Netze eignen sich sehr gut für die Klassifikation von Bildern und finden bereits heute vielfach Verwendung.... Weiterlesen
Grundlagen Abwehrspiel: Was können wir gegen Adversarial Examples tun? 12. Juli 2021 Wie wir im vorherigen Beitrag erfahren haben, ist Software für Maschinelles Lernen anfällig für bestimmte Angriffe... Weiterlesen
Grundlagen Was sind Adversarial Examples? 07. Juli 2021 Um Maschinelles Lernen im Alltag nutzen zu können, muss man eine Software entwickeln, die in der Lage ist, das... Weiterlesen
Forschung Robust oder anfällig – mit Wärme mehr Einsichten in neuronale Netze erhalten 01. Juni 2021 Wenn künstliche Intelligenzen Entscheidungen treffen müssen, können sie leicht zum Opfer feindlicher Angriffe... Weiterlesen
Forschung Der Weg zur abgesicherten KI: Ein Überblick über praktische Methoden 24. März 2021 In Laufe kaum eines Jahrzehnts haben tiefe neuronale Netzwerke (DNNs) das Maschinelle Lernen revolutioniert und zeigen... Weiterlesen