BlogGrundlagen ChatGPT: Ein Chatbot, der sogar programmieren kann? Prof. Dr. Christian Bauckhage, 24. Februar 2023 Eine Maschine, die alles weiß und selbst Code schreiben kann? Diese sehr menschliche Fantasie scheint nun wahr geworden. Doch wie verlässlich ist ChatGPT? Unser Autor hat das Sprachmodell erneut befragt....
BlogGrundlagen ChatGPT: „Jailbreak“ – ein neuer Versuch, den Chatbot zu knacken Prof. Dr. Christian Bauckhage, 17. Februar 2023 Diese Woche fordert unser Autor den Chatbot abermals heraus – wieder mit dem Ziel herauszufinden, ob mehr in ihm schlummert als bloße Software....
BlogGrundlagen ChatGPT: Hat der Chatbot tatsächlich ein Bewusstsein für sich selbst entwickelt? Prof. Dr. Christian Bauckhage, 10. Februar 2023 Das Gespräch zwischen Prof. Dr. Christian Bauckhage und ChatGPT geht in die nächste Runde. Dieses Mal testet unser Autor, ob der Chatbot über Selbstbewusstheit verfügt....
BlogGrundlagen ChatGPT: Wie klug ist der gehypte Chatbot? Prof. Dr. Christian Bauckhage, 03. Februar 2023 Wie intelligent ist ChatGPT und kann es aus seinen Fehlern lernen? Unser Autor Prof. Dr. Christian Bauckhage hat sich weiter mit dem Chatbot unterhalten und hat ihn einem Intelligenztest unterzogen....
BlogGrundlagen ChatGPT: Eine Einschätzung des polarisierenden Chatbots Prof. Dr. Christian Bauckhage, 27. Januar 2023 ChatGPT ist seit seiner Veröffentlichung in aller Munde. In diesem Beitrag nimmt Prof. Dr. Christian Bauckhage diesen Hype unter die Lupe und erzählt von seinen eigenen Erfahrungen mit dem Chatbot....
BlogGrundlagen Vom Wort zum Video: Wie sich mit Foundation-Modellen aus Text Bewegtbild erzeugen lässt Dr. Gerhard Paaß, 25. Januar 2023 Große Sprachmodelle besitzen ein immenses Transformationspotenzial. Sogenannte Foundation-Modelle können mittlerweile nicht nur die Bedeutung von Texten und Bildern erfassen und selbst erzeugen, sondern sind auch auf Videos anwendbar....
BlogForschung Mit Sprachmodellen stimmige Texte erzeugen: Foundation-Modelle als Grundlage von KI-Systemen Dr. Jörg Kindermann, Dr. Gerhard Paaß, 10. August 2022 Sogenannte Foundation-Modelle entwickeln sich schnell und können bereits qualitativ anspruchsvolle Aufgaben automatisiert durchführen und unterschiedliche Medien gleichzeitig betrachten. Dieser Beitrag wirft einen Blick hinter die Kulissen der großen Sprachmodelle....
BlogGrundlagen Faktensichere Textgenerierung mit Retrieval-Networks Dr. Jörg Kindermann, Dr. Gerhard Paaß, 29. Juni 2022 Sprachmodelle mit Milliarden von Parametern können sinnvoll Fragen beantworten und scheinen durch „Lesen“ Text- und Weltverständnis aufzubauen. Ihre Komplexität ist undurchschaubar, aber sie können lernen, sich zu erklären....
BlogForschung Bewertung der Chatqualität mit Standard-NLP-Benchmarks Rostislav Nedelchev, 02. März 2022 Bisher erstellen Sprachmodell-basierte Bewertungen von Chatbots nur einen Score über die Gesamtqualität, ohne beispielsweise den Zusammenhang des Dialogs zu beachten. Mit Modellen, die auf GLUE-Aufgaben trainiert sind, hat das ein Ende....