KI in den Naturwissenschaften: Wann sind Vorhersagen wirklich vertrauenswürdig?

Digital artwork showing a flower in bloom, blending natural elements like animals and plants with technological motifs such as data streams, neural networks, and computer graphics. The image symbolizes the intersection of artificial intelligence, machine learning, sustainability, and scientific research in an outdoor-inspired, creative composition.

Neue Publikation von Lamarr PI Prof. Jürgen Bajorath analysiert den wissenschaftlichen Nutzen prädiktiver KI-Modelle

Die Anwendung von Künstlicher Intelligenz in den Naturwissenschaften wächst stetig – insbesondere in Disziplinen wie Chemie, Biologie oder Medizin. Doch wie aussagekräftig und vertrauenswürdig sind KI-generierte Vorhersagen in einem wissenschaftlichen Kontext wirklich?

Dieser Frage widmet sich eine neue Publikation von Prof. Dr. Jürgen Bajorath, Principal Investigator am Lamarr-Institut für Maschinelles Lernen und Künstliche Intelligenz. Zudem verantwortet er das Life Science Informatics Programm am Bonn-Aachen International Center for Information Technology (b-it) der Universität Bonn. Der Beitrag mit dem Titel From Scientific Theory to Duality of Predictive Artificial Intelligence Models ist kürzlich in Cell Reports Physical Science erschienen.

Die Studie formuliert ein theoretisches Rahmenwerk, das zeigt: Die Erklärung von KI-Vorhersagen ist nicht mit deren wissenschaftlicher Interpretation gleichzusetzen – und schon gar nicht mit dem Nachweis kausaler Zusammenhänge.

Vertrauenswürdige KI in den Naturwissenschaften: Forschung am Lamarr-Institut

Am Lamarr-Institut leitet Prof. Bajorath den Forschungsbereich Life Sciences. In seiner Arbeit verbindet er Methoden des maschinellen Lernens mit Anwendungen in der Chemieinformatik, medizinischen Chemie und Wirkstoffforschung. Die aktuelle Publikation adressiert eines der zentralen Anliegen des Lamarr-Instituts: die Entwicklung erklärbarer, vertrauenswürdiger KI-Systeme mit realer Anwendungsperspektive.

Bajorath beschreibt darin die „Dualität prädiktiver Modelle“: Je nachdem, ob ein Modell auf einer wissenschaftlich fundierten Hypothese basiert oder rein datengetrieben ist, unterscheidet sich seine Eignung für experimentelle Folgeforschung erheblich. Nur wenn ein Modell auf nachvollziehbaren wissenschaftlichen Prinzipien beruht, kann es laut Bajorath als Ausgangspunkt für Hypothesenbildung, Kausalitätsanalyse und experimentelles Design dienen.

Der Einsatz erklärbarer KI in der Forschung lässt sich auch als zyklischer Prozess verstehen.
Der Einsatz erklärbarer KI in der Forschung lässt sich auch als zyklischer Prozess verstehen. © Jürgen Bajorath / Universität Bonn

Klarer Unterschied: Erklärung ≠ Interpretation ≠ Kausalität

Die Studie grenzt zentrale Begriffe der KI-Forschung systematisch voneinander ab:

  • Modellerklärung (explanation): Welche Merkmale nutzt das Modell für seine Vorhersage?
  • Interpretation: Wie bewertet der Mensch diese Merkmale im wissenschaftlichen Kontext?
  • Kausalität: Lässt sich ein ursächlicher Zusammenhang zwischen einer Vorhersage und eines natürlichen Prozesses experimentell belegen?

Fehlt die wissenschaftliche Rationalität im Modellansatz, drohen Fehlinterpretationen – ein Risiko, das Bajorath unter anderem am Beispiel sogenannter „Clever Hans Predictors“ illustriert: Modelle, die scheinbar korrekte Ergebnisse liefern, deren Entscheidungsgrundlage aber irreführend ist. Gerade im Bereich der KI in den Naturwissenschaften kommt es häufig zu Missverständnissen – etwa, wenn Modelle scheinbar zutreffende Ergebnisse liefern, aber auf irrelevanten oder nicht nachvollziehbaren Kriterien basieren.

Relevanz für die KI-Forschung am Lamarr-Institut

Die Studie ist ein Beitrag zur Grundlagenforschung im Bereich vertrauenswürdiger und erklärbarer KI – einem der Leitprinzipien des Lamarr-Instituts. Sie verdeutlicht, unter welchen Bedingungen Künstliche Intelligenz in den Naturwissenschaften mehr sein kann als ein reines Vorhersagewerkzeug: nämlich ein methodisch fundiertes Instrument zur Hypothesenbildung und Erkenntnisgewinnung.

Zugleich liefert sie wichtige Impulse für andere Lamarr-Forschungsbereiche, etwa Trustworthy AI, Hybrid ML und Life Sciences, die erklärbare und wissenschaftlich fundierte KI-Modelle entwickeln – im Sinne der Triangulären KI, die Daten, Wissen und Kontext systematisch miteinander verknüpft.

Publikation: Jürgen Bajorath: From Scientific Theory to Duality of Predictive Artificial Intelligence Models. Cell Reports Physical Science (2025). DOI: 10.1016/j.xcrp.2025.102516

Weitere News