Mit Design of Experiments und Künstlicher Intelligenz zu mehr Nachhaltigkeit durch Ressourceneffizienz

00 Blog Weichert Forschung neu - Lamarr Institute for Machine Learning (ML) and Artificial Intelligence (AI)
© NeoLeo & ML2R

Aktuelle Krisen fordern sowohl uns persönlich als auch die Wirtschaft heraus. Während wir in der Covid-Krise über Lieferkettenprobleme bei Produkten wie Toilettenpapier und Nudeln lachen konnten, vergeht es uns angesichts der Effekte des Klimawandels und des Ukraine-Kriegs. Selbst wenn wir nicht persönlich in die Fürsorge von Flüchtlingen involviert sind, betrifft uns der Krieg spätestens dann, wenn wir in unser Portemonnaie schauen – Strom und Heizung, aber auch Lebensmittel werden immer teurer.

Effizienz – ein Beitrag zur Nachhaltigkeit

Eine Konsequenz aus der Teuerung ist das Ziel, Ressourcen zu schonen: sowohl, um kurzfristig mit der plötzlichen Verknappung umzugehen, als auch, um langfristig nachhaltig Emissionen senken zu können. Dies hilft uns, die Klimaziele zu erreichen und unseren Kindern und Kindeskindern eine lebenswerte Welt zu hinterlassen.

Auch Künstliche Intelligenz (KI) unterstützt die Bemühungen, nachhaltiger zu werden: Im Exzellenzcluster Phenorob werden Drohnen und Roboter entwickelt, um die Landwirtschaft zukunftsfähig zu gestalten. Aber KI wird auch genutzt, um Prozesse in Energiewirtschaft und Industrie, den zwei Hauptsektoren deutscher CO₂-Emissionen, effizienter zu gestalten.

KI am Anfang der Wertschöpfungskette – Chancen in Forschung und Entwicklung

Eine besondere Chance bietet der Einsatz von KI am Anfang der Wertschöpfungskette, also im Bereich der Forschung und Entwicklung. Dieser Bereich bedeutet für ein Unternehmen hohe Kosten und ein hohes Risiko: Der Einsatz wertvoller Ressourcen wird nicht automatisch mit einer erfolgreichen Entwicklung belohnt. Gleichzeitig bieten Experimente aber die Chance, neue Dinge auf kleiner Skala auszuprobieren, bevor Fehler auf der großen Skala (oder beim Kunden) richtig teuer werden.

Im Blogbeitrag „Wie funktioniert Design of Experiments mit KI?“, aber auch im kürzlich veröffentlichten Whitepaper wird diskutiert, wie Design of Experiments mit KI technisch funktioniert. Aber was ist Design of Experiments? Es ist die Kunst, aus der Menge aller möglicher Versuche nur diejenigen auszuwählen und durchzuführen, die erforderlich sind, um die aktuelle Forschungsfrage zu beantworten. Es geht zum Beispiel darum, mit möglichst geringem Ressourceneinsatz zu bewerten, ob Werkstoff A besser ist als Werkstoff B, oder mit möglichst wenigen (aber allen notwendigen) Probanden zu bewerten, ob ein neues Medikament seine Anforderungen erfüllt.

Dieser Prozess läuft üblicherweise in drei Phasen ab:

Abb 3 Dreiphasiger DoE Prozess de - Lamarr Institute for Machine Learning (ML) and Artificial Intelligence (AI)
© Fraunhofer IAIS
Der dreiphasige Design of Experiment-Prozess im Überblick.

Grundlegend ist die Definition des Problems, also aller Einflussfaktoren und Zielgrößen (Phase 1). Darauf folgt die vorläufige Bewertung der Einflussfaktoren in Phase 2 und die Optimierung in Phase 3. KI kann mithilfe von informierten, probabilistischen Machine-Learning-Modellen in den Phasen 2 und 3 unterstützen: Sie dient der Formulierung von Hypothesen, der Planung von Experimenten und deren Analyse.

Doch was bringt das? Anwendungsstudien zeigen, dass durch den Einsatz von KI für Design of Experiments bis zu 50 % der Experimente eingespart werden können. Je nach Setup bedeutet das eine gleich große Einsparung von Ressourcen in Form von Energie, Rohstoffen und Arbeitszeit und damit eine wesentlich effizientere und nachhaltigere Forschung und Entwicklung.

Diskussion: Welchen Ressourcenverbrauch hat KI?

Die Frage ist, was der Einsatz von KI in der Forschung und Entwicklung kostet. Besonders für große Modelle, die mit vielen Daten umgehen, ist dies ein heiß diskutiertes Thema. Der „Bad Boy” unter den Machine-Learning-Methoden sind Sprachmodelle, bei denen schon 2019 das Training eines einzigen Modells in den USA mit 284 t CO₂-Äquivalenten zu Buche schlug. Für heutige Modelle sind noch höhere Zahlen zu erwarten. Zum Vergleich: Der deutsche Durchschnittsbürger emittiert jährlich 11,2 t CO₂-Äquivalente.

Großen Einfluss auf die Emissionen eines Machine-Learning-Modells und damit auf seinen Ressourcen- und Energieverbrauch haben der Modelltyp und seine Komplexität, die Effizienz des Rechenclusters, dessen Standort (wie wurde der Strom zum Betrieb erzeugt?) sowie die verwendete Datenmenge. Nachhaltige KI-Forschung erfordert daher einen gezielten Einsatz der benötigten Ressourcen und zielt auf die Entwicklung sparsamerer Modelle.

In Bezug auf KI für Design of Experiments kann an dieser Stelle jedoch Entwarnung gegeben werden: Typischerweise werden kleine, wenig komplexe Modelle genutzt, die möglichst viel aus der geringen verfügbaren, weil teuren, Datenmenge herausholen. In den meisten Fällen können alle Schritte in kurzer Zeit auf einem Laptop durchgeführt werden – es ist also ein ressourceneffizienter KI-Einsatz und eine gute Möglichkeit, Forschung und Entwicklung nachhaltiger zu gestalten.

Fazit

In diesem Beitrag haben wir den Einsatz von KI zur Ressourceneinsparung in der Forschung und Entwicklung beleuchtet. KI bietet die Möglichkeit, durch schlaues Design of Experiments Versuche einzusparen, während sie selbst nur geringe Ressourcen verbraucht. Somit kann sie einen relevanten Beitrag leisten, um aktuellen Krisen zu begegnen und uns helfen, die Dinge, die uns zur Verfügung stehen, optimal zu nutzen.

Weitere Informationen im zugehörigen Whitepaper:

KI-gestütztes Design of Experiments in Forschung und Entwicklung: Mit Künstlicher Intelligenz und Expertenwissen zu effizienteren Versuchsplänen
Ernis, Gunar und Dorina Weichert, Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS, 2022, Link

Dorina Weichert

Dorina Weichert ist wissenschaftliche Mitarbeiterin und Doktorandin am Fraunhofer IAIS in Sankt Augustin. Sie arbeitet und forscht im Bereich der Bayesschen Optimierung und des Design of Experiments. Am liebsten arbeitet sie mit Gaußschen Prozessen, die effizient wenige Daten mit Vorwissen zu einem vertrauenswürdigen Modell verknüpfen.

Weitere Blogartikel