Inzwischen habe ich mehrfach betont, dass ChatGPT zwar ein erstaunlich fähiger Chatbot ist, aber letzten Endes eben doch nur ein sehr großes Sprachmodell. Das ist wichtig zu wissen, denn in den letzten Wochen waren die Medien voll von Beschwerden, dass ChatGPTs Antworten auf mehr oder weniger schwierige Fragen oft falsch sind. Solche Berichte kommen dann in der Regel zu dem Schluss, dass die moderne Künstliche Intelligenz immer noch nur eine Spielerei ist, und dass Behauptungen über ihr disruptives Potenzial übertrieben sind.
Angesichts dieser Art von Berichterstattung bin ich der Meinung, dass die Feststellung von ChatGPTs Unzulänglichkeiten zwar berechtigt ist, es aber zu kurz gegriffen wäre, sein disruptives Potenzial herunterzuspielen. In diesem Beitrag werde ich versuchen zu erklären, wie ich zu dieser Ansicht komme. Dazu ist es aufschlussreich, dass wir eine frühe Interaktion, die ich mit dem Chatbot im Dezember 2022 hatte, hinzuziehen und uns ansehen, was sich aus ihr ableiten lässt. Allerdings muss ich erneut mit einem Hinweis beginnen: Die folgende kurze Unterhaltung behandelt Quantencomputing, eines der Themen, die wir am Lamarr-Institut erforschen. Da Quantencomputing fortgeschrittene Mathematik beinhaltet, mag meine Unterhaltung mit ChatGPT kryptisch erscheinen – ich werde jedoch nicht auf die zugrunde liegenden technischen Details eingehen, sondern lediglich allgemeine Aspekte kommentieren.
Da haben wir es wieder. Schon bei einer der ersten Interaktionen, die ich mit dem Chatbot hatte, wirkte er ziemlich gesprächig und übermäßig darauf erpicht, zu beeindrucken. Aber wie detailliert ist sein Wissen über Quantencomputing?
Das ist amüsant! Ich habe nach einem Diagramm gefragt und was ich bekommen habe, liest sich wie die Bildunterschrift einer wissenschaftlichen Illustration. Das deutet wieder einmal darauf hin, dass ChatGPT mit vielen wissenschaftlichen Abhandlungen und Lehrtexten trainiert wurde und daher Antworten produziert, wie man sie in solchen Quellen finden würde. Ich war allerdings in keiner Weise enttäuscht. Zum einen wusste ich, dass ChatGPT keine Bilder zeichnen kann. Ich mache ihm das nicht zum Vorwurf, denn Bilder zu zeichnen ist nicht seine Aufgabe. In der Tat gehe ich davon aus, dass ChatGPT, wenn es mit bildgebenden KIs wie DALLE-2 gekoppelt wäre, kein Problem hätte, auch Bilder zu erzeugen. Zum anderen enthält die Antwort, die ich bekommen habe, auf den ersten Blick alle relevanten Schlagwörter und scheint daher intuitiv richtig zu sein. Aber kann ChatGPT noch mehr? Kann es eine Antwort generieren, die über eine scheinbar adäquate Bild-Beschriftung hinausgeht?
]Jetzt war ich tatsächlich beeindruckt! ChatGPT hat hier Python-Code mit Methoden aus der qiskit-Bibliothek von IBM erzeugt, einem beliebten Tool zum Implementieren und Testen von Quantenalgorithmen. Außerdem sieht der erzeugte Code wirklich so aus, als hätte eine menschlicher Expert*in die Ideen aus der vorherigen Antwort des Chatbots programmiert.
Was wir hier sehen, ist also ein Beispiel für die Fähigkeit von ChatGPT zu programmieren! Dies ist eine der Funktionen, die im Internet für Aufregung gesorgt haben und die Befürchtung aufkommen ließen, dass Künstliche Intelligenz den Beruf des Programmierenden überflüssig machen wird.
Allerdings gibt es einen großen Vorbehalt! Ich war von dieser Wendung des Gesprächs so beeindruckt, dass ich gar nicht gemerkt habe, dass die Antworten, die ich erhalten hatte, völliger Unsinn waren. Diese Erkenntnis kam erst zwei Wochen später, als ich einen wissenschaftlichen Vortrag über aktuelle Entwicklungen in der KI vorbereitete. Erst als ich den obigen Code auf meine Folien kopierte und sorgfältig durchlas, wurde mir klar, dass er keineswegs die logische AND-Verknüpfung von zwei Quantenbits berechnet. Auf den ersten Blick sieht es passend aus, aber bei näherer Betrachtung ist es das absolut nicht. Schlimmer noch: einige der Kommentare im Code sind irreführend und geben nicht korrekt wieder, was gemacht wird.
Was können wir also daraus lernen? Obwohl ich selbst im Feld der Künstlichen Intelligenz arbeite und regelmäßig Qiskit-Code schreibe, habe ich mich von ChatGPTs Zuversicht und scheinbarer Expertise täuschen lassen. Das ist zwar peinlich, aber ich habe letztlich eingesehen, dass ich getäuscht worden war. Aber würden Studierende, die ChatGPT für ihre Hausaufgaben nutzen, das auch bemerken? Was ist mit Hobby-Investor*innen, die ChatGPT als Finanzberatung nutzen? Ich weiß es zwar nicht, würde es aber bezweifeln. In der kurzen Zeit, seitdem ChatGPT veröffentlicht wurde, habe ich zum Beispiel schon viele YouTube-Videos gesehen, in denen Leute etwas sagten wie „die KI hat mir gesagt, dass …“ und die dabei die Gültigkeit dessen, was ihnen gesagt wurde, nicht zu hinterfragen schienen.
Dies macht deutlich, wie wichtig die Art von Forschung ist, die wir am Lamarr-Institut betreiben. Zunächst einmal ist die Vertrauenswürdigkeit von KI ein offensichtlich wachsendes Anliegen und unsere Wissenschaftler*innen arbeiten in interdisziplinären Teams, um Erfassung, Speicherung, Zugriff, Abfrage, Vorbereitung, Modellierung und Anwendung von Daten zu untersuchen und Systeme zu entwickeln, deren Ergebnisse zuverlässig sind.
Des Weiteren möchte ich noch einmal betonen, dass ChatGPT nur ein großes Sprachmodell ist, das nie speziell dafür entwickelt wurde, die Fragen von Menschen zuverlässig zu beantworten. Tatsächlich hat Sam Altman, der CEO von OpenAI, kurz nach der Veröffentlichung von ChatGPT in einem Tweet explizit darauf hingewiesen.
Bedeutet das, dass KI-Systeme wie ChatGPT niemals zuverlässig sein werden? Nein, das tut es sehr wahrscheinlich nicht! Im Gegenteil, für Expert*innen ist es eher offensichtlich, wie die derzeitigen Grenzen in Hinblick auf die Zuverlässigkeit überwunden werden können. So veröffentlichte Stephen Wolfram im Januar 2023 einen viel beachteten Blogbeitrag, in dem er Ideen skizzierte, wie datengesteuerte Sprachmodelle in wissensgesteuerte Inferenzmaschinen integriert werden können.
Auch dies deckt sich mit unseren Forschungszielen am Lamarr-Institut. In unserer Arbeit zum hybriden Maschinellen Lernen entwickeln wir Methoden, die Daten, Wissen und (Anwendungs-)Kontexte in den Lernprozess integrieren. Dies verspricht zum einen Lösungen, die effizienter und robuster sind als rein datengetriebene Verfahren. Andererseits erwarten wir, dass unsere Arbeit zu besser erklärbaren und vertrauenswürdigeren Systemen führt, die weniger einseitig bzw. voreingenommen sind. Und die noch dazu eine geringere Menge an Trainingsdaten benötigen als aktuelle große Sprachmodelle. Letzteres bedeutet auch, dass hybride ML-Lösungen demokratischer sein können, da nicht nur die Giganten der IT-Branche mit ihren praktisch unbegrenzten Ressourcen fortschrittliche KI entwickeln können, sondern auch kleinere Unternehmen oder öffentliche Einrichtungen.
Können wir ChatGPT vertrauen?
Auch wenn es verlockend ist, die Antworten von ChatGPT für bare Münze zu nehmen, weil diese zunächst immer überzeugend und sachkundig erscheinen, müssen wir dennoch sehr vorsichtig sein mit dem, was der Chatbot uns sagt. Auch oder gerade wenn seine Antworten auf den ersten Blick plausibel und souverän wirken. Dieser Umstand unterstreicht eindrucksvoll die Bedeutung unserer Forschung im Bereich vertrauenswürdige KI am Lamarr-Institut. In ähnlicher Weise ist unsere Forschung zu hybriden Methoden des Maschinellen Lernens durch solche Unzulänglichkeiten aktueller KI-Systeme motiviert. Wer mehr darüber erfahren möchte, sollte auch hier dranbleiben – in den nächsten Beiträgen werde ich ausführlicher auf diese Bereiche eingehen.