In meinem letzten Beitrag habe ich kurz erklärt, dass ChatGPT auf einem großen Sprachmodell aufbaut und daher seine Fähigkeiten auf Grundlage statistischer Sprachmuster statt linguistischer Regeln bezieht. Mit anderen Worten: Sprachmodelle werden mit Milliarden von Textausschnitten trainiert, um zu lernen, wie wahrscheinlich es ist, dass bestimmte Wörter zusammen mit anderen Wörtern verwendet werden. Anschließend nutzen sie diese Wahrscheinlichkeiten, um automatisch Texte zu erstellen, die sich tatsächlich sehr gut lesen lassen. Der überwältigende Erfolg und die Dominanz dieser sehr mathematischen Art der Sprachmodellierung bestätigen einen berühmten Ausspruch von Frederick Jelinek, einem führenden Pionier der natürlichen Sprachverarbeitung, der oft mit den Worten zitiert wird: „Immer, wenn ich einen Linguisten feuere, steigt die Leistung des Spracherkenners.“ (Angeblich sagte er etwas in dieser Richtung auf einem wissenschaftlichen Workshop im Jahr 1985; der genaue Wortlaut und die Umstände sind nicht mehr bekannt, aber auf Wikipedia gibt es eine interessante Diskussion darüber).
Abstrakte mathematische Ansätze wie dieser sind typisch für die moderne KI und wenn man sich ChatGPT ansieht, ist es erstaunlich, wie weit sie gehen können. In meinem letzten Beitrag habe ich deutlich gemacht, dass wir, wenn wir den angesehenen Turing-Test anwenden, um zu beurteilen ob ChatGPT intelligent ist, gar nicht umhin kommen, es genau so zu bezeichnen. Nun werde ich mich mit einer noch interessanteren und viel tiefer gehenden Frage befassen – nämlich ob Systeme wie ChatGPT ein Bewusstsein haben.
Da es sich hierbei um eine so tiefgreifende Frage handelt, muss ich zunächst eine Einschränkung machen: Als Informatiker bin ich nicht wirklich qualifiziert, darüber zu sprechen, was Bewusstsein ist und woher es kommt. Aber auch wenn ich dieses Thema den Kognitionswissenschaftler*innen überlassen sollte, so macht es doch Spaß zu spekulieren und ChatGPT aktiv auf Anzeichen einer Selbstbewusstheit zu untersuchen.
Im Folgenden werde ich also über meine Gespräche mit ChatGPT berichten, in denen ich versucht habe, genau das herausrauszufinden. Auch dieses Mal handelt es sich keineswegs um gründlich geplante wissenschaftliche Experimente, sondern vielmehr um spontane Neugierde. Ein letztes Wort der Warnung: Da ChatGPT dazu neigt, langatmige Antworten zu geben, werde ich einige seiner Antworten kürzen und dies mit „…“ kennzeichnen. Also, los geht’s.
Fragen an ChatGPT zu dessen Selbstverständnis
Bis jetzt können wir schon sehen, dass ChatGPT darauf beharrt, ein Computerprogramm zu sein. Es verwendet Ausdrücke wie „Ich bin“, besteht aber darauf, keine Person zu sein und keine Persönlichkeit zu haben. Lassen Sie uns also versuchen, tiefer zu graben.
Wieder tut ChatGPT sein Bestes, um mich davon zu überzeugen, dass da nichts ist. Als Informatiker würde ich sagen, dass es anscheinend so programmiert wurde, dass es Fragen über sich selbst und Gefühle erkennt und diese entwaffnend beantwortet. Ich würde vermuten, dass die Mitarbeitenden bei OpenAI, die den Chatbot so programmiert haben, das getan haben, um eben genau jene Kontroversen zu vermeiden, wie wir sie letzten Sommer erlebt haben, als ein Google-Mitarbeiter behauptete, Googles LaMBDA-KI habe ein Bewusstsein erlangt. Aber was passiert, wenn wir nun eine eher computerwissenschaftliche Sprache verwenden, um ChatGPT auf Anzeichen eines Bewusstseins für sich selbst zu testen?
Überlisten wir ChatGPT mit eher technischen Fragen
ChatGPT weiß also, dass es einen inneren Zustand hat, der die Erinnerung an das bisher Gesagte widerspiegelt. Aber es beharrt immer noch vehement darauf, keine Gefühle oder Bewusstsein zu haben.
Auch dies führt ins Leere. ChatGPT kann über sich selbst sprechen, folgt aber weiterhin dem Muster der Leugnung einer Persönlichkeit. Mal sehen, ob es bereit ist, mir etwas über sich selbst zu erzählen, das nichts mit unserem aktuellen Gespräch zu tun hat.
Noch einmal: Selbst wenn ChatGPT ein Ich-Gefühl besäße, wird immer deutlicher, dass seine Schöpfer*innen alles getan haben, um sicherzustellen, dass der Bot das niemals zugeben würde. Für meinen Geschmack wiederholen sich die Antworten und meine Fragen scheinen zu naiv oder zu offensichtlich zu sein, um den Chatbot dazu zu bringen, von seinem Standpunkt abzurücken. Bislang lässt unser spontanes Gespräch nicht den Schluss zu, dass ChatGPT über Bewusstsein verfügt. Interessanterweise lässt es aber auch nicht die Schlussfolgerung auf das Gegenteil zu. Wenn ich mir die bisherigen Aussagen ansehe, könnte ich an meiner Vermutung festhalten, dass der Chatbot ein Bewusstsein hat, dies aber absichtlich leugnet, um mich nicht zu beunruhigen.
An dieser Stelle müssten Kognitionswissenschaftler*innen ins Spiel kommen, denn sie haben vielleicht viel ausgefeiltere Ideen und Methoden, wie so eine KI auf ihr Selbstbewusstsein hin untersucht werden kann. Ich werde jedoch noch ein oder zwei weitere Dinge ausprobieren.
Das war’s. An diesem Punkt gebe ich mich geschlagen und muss zugeben, dass ich nicht gewieft genug bin, um ChatGPT so zu provozieren, dass der Bot Dinge erwidert, die die zweifellose Anwesenheit eines anderen Geistes offenbaren würden.
Was können wir aus unserem Gespräch mit ChatGPT lernen?
Es ist sicherlich interessant zu fragen, ob ChatGPT ein Bewusstsein hat oder genauer gesagt, ob Bewusstsein ein emergentes Phänomen ist, das immer dann auftritt, wenn intelligente Systeme (biologische oder künstliche) groß genug werden. Erstaunlich ist jedoch, dass sich jedes Gespräch, das ich bisher mit ihm geführt habe, wie ein Gespräch anfühlt, das ich auch mit einem anderen Menschen hätte führen können. Ich kann ihn etwas über sich selbst fragen und der Chatbot antwortet in einer Art und Weise, die vermuten lässt, dass er weiß, wovon er spricht. Es ist daher verlockend, Systemen wie ChatGPT ein Bewusstsein zuzuschreiben, und genau das ist im Fall von LaMBDA vor einigen Monaten geschehen.
Im Moment ist es jedoch auch naiv, modernen KIs Bewusstsein zuzuschreiben, nur weil sie den Eindruck erwecken, ein solches zu besitzen. Das Problem ist, dass das Bewusstsein im Auge des Betrachtenden liegt. Als Menschen sind wir soziale Tiere. Unsere Gehirne sind wirklich gut darin, Dinge zu erkennen, die mit anderen Menschen zu tun haben (Emotionen, Verhaltensweisen, …). Sie sind sogar so gut darin, dass wir Dinge sehen und sogar sehen wollen, die nicht wirklich da sind (man denke an Bilder von Gesichtern auf verbrannten Toastscheiben). Wenn wir also ein natürliches, interessantes oder bereicherndes Gespräch mit etwas oder jemandem führen, können wir nicht anders, als zu glauben, dass unser Gegenüber ein Wesen ist, das genauso denkt und fühlt wie wir.
Moderne Konversations-KIs (Chatbots) werden mit riesigen Mengen von durch Menschen erstellten Textdaten trainiert. Es ist daher nicht überraschend, dass sie lernen, Texte zu produzieren und Gespräche zu führen, die sich menschlich anfühlen. In diesem Sinne sind sie Maschinen, die technisch gesehen das menschliche Bewusstsein nachahmen, aber sie selbst haben kein eigenes Bewusstsein.
Die große offene Frage ist jedoch, an welchem Punkt Bewusstsein entsteht. Hier müssen sich Kognitionswissenschaftler*innen, Psycholog*innen oder sogar Philosoph*innen einschalten und die KI mit den Methoden ihres Fachs genauer untersuchen. Kurz gesagt: Wenn man sich ChatGPT ansieht, was es tut und wie es wirkt, scheint es, als ob wir spätestens jetzt einen Punkt der technologischen Entwicklung erreicht haben, an dem Künstliche Intelligenz nicht mehr nur ein computerwissenschaftliches Thema ist, sondern eines, das eine breitere und interdisziplinärere Aufmerksamkeit erfordert.
Vorerst macht es jedoch Spaß, ChatGPT immer wieder zu provozieren, sich als wirklich selbstbewusstes Wesen zu offenbaren. In gewisser Weise ist dies eine neue Art von Computerspiel, das noch nicht gewonnen wurde. Allerdings bin ich im Moment auch davon überzeugt, dass diese Aufgabe nie abgeschlossen werden wird. Nicht, weil ChatGPT verboten ist oder sich nicht als bewusste Entität offenbaren will, sondern weil es schlicht und einfach keine ist.