Große Datenmengen sind bei der Berechnung von ML-Algorithmen problematisch. Eine Lösung liegt in Dimensionsreduktionsverfahren wie der Linearen Diskriminanzanalyse (LDA), sie reduziert die Anzahl der Daten-Merkmale unter Berücksichtigung der vorhandenen Klassen Labels.
Das Lernen auf großen, hochdimensionalen Datensätzen liefert besonders aussagekräftige Ergebnisse, verbraucht aber sehr viel Speicher- und Rechenkapazität. Das Verfahren der Dimensionsreduktion kann zur Lösung dieses Problems beitragen.
Haben Sie sich in letzter Zeit darüber unterhalten, wie Künstliche Intelligenz unser gesellschaftliches Zusammenleben beeinflusst? Wie Menschen den Einsatz von KI beurteilen, visualisiert das neue Daten-Dashboard des Meinungsmonitors Künstliche Intelligenz.
In diesem Beitrag stellt sich der Exzellenzcluster „PhenoRob – Robotik und Phänotypisierung für Nachhaltige Nutzpflanzenproduktion“ der Universität Bonn vor und gibt spannende Einblicke in seine Forschungsfelder rund um die Landwirtschaft 4.0.
Daten werden gesammelt wie nie zuvor, aber wohin damit? Wie kann Datenschutz gewährleistet und gleichzeitig durch datengetriebene Algorithmen Mehrwerte geschaffen werden? All diese Fragen adressiert Gaia-X.
Bisher erstellen Sprachmodell-basierte Bewertungen von Chatbots nur einen Score über die Gesamtqualität, ohne beispielsweise den Zusammenhang des Dialogs zu beachten. Mit Modellen, die auf GLUE-Aufgaben trainiert sind, hat das ein Ende.
Dialogsysteme sind in Sprachassistenten wie Siri oder Alexa oder in Chatbots auf Social-Media-Plattformen weit verbreitet. Aber woher weiß man, dass der eigens entwickelte Chatbot tatsächlich funktioniert?
Die meisten bereits vorhandenen Knowledge Graphs Embedding Modelle unterstützen oft nur einen einzigen Transformationstyp. Das Modell der 5* Wissensgraph-Einbettung kann jedoch mehrere gleichzeitige Transformationen wie Inversion, Reflexion, Homothetie durchführen.
Der Einsatz künstlicher intelligenter Systeme erschwert es uns, Personen für Fehlentscheidungen verantwortlich zu machen. Die Einbindung menschlicher Akteure und erklärbarer KI-Systeme ermöglicht eine Verantwortungszuschreibung bei KI-gestützten Entscheidungsprozessen.