Das Lernen auf großen, hochdimensionalen Datensätzen liefert besonders aussagekräftige Ergebnisse, verbraucht aber sehr viel Speicher- und Rechenkapazität. Das Verfahren der Dimensionsreduktion kann zur Lösung dieses Problems beitragen.
Künstliche Intelligenz braucht viele Daten. Aber wie viele Daten brauche ich mindestens für ein gutes Modell? Der „Curse of Dimensionality“ und das “Nyquist-Shannon-Theorem” geben Antworten.