Eine Maschine, die alles weiß und selbst Code schreiben kann? Diese sehr menschliche Fantasie scheint nun wahr geworden. Doch wie verlässlich ist ChatGPT? Unser Autor hat das Sprachmodell erneut befragt.
Das Gespräch zwischen Prof. Dr. Christian Bauckhage und ChatGPT geht in die nächste Runde. Dieses Mal testet unser Autor, ob der Chatbot über Selbstbewusstheit verfügt.
Die Recherche zur Fallbearbeitung nimmt einen Großteil der Arbeitszeit von Jurist*innen in Anspruch. Durch den Einsatz von speziellen Machine-Learning-Methoden, wie dem Question Answering, kann dieser Aufwand reduziert werden.
Sogenannte Foundation-Modelle entwickeln sich schnell und können bereits qualitativ anspruchsvolle Aufgaben automatisiert durchführen und unterschiedliche Medien gleichzeitig betrachten. Dieser Beitrag wirft einen Blick hinter die Kulissen der großen Sprachmodelle.
In das Erstellen von Finanzberichten investiert ein Unternehmen viele Arbeitsstunden und viel Geld. ART ist ein neues Verfahren, mit dem es möglich sein soll, strukturierte Tabellendaten aus Finanzberichten in Text umzuwandeln.
Bisher erstellen Sprachmodell-basierte Bewertungen von Chatbots nur einen Score über die Gesamtqualität, ohne beispielsweise den Zusammenhang des Dialogs zu beachten. Mit Modellen, die auf GLUE-Aufgaben trainiert sind, hat das ein Ende.
Dialogsysteme sind in Sprachassistenten wie Siri oder Alexa oder in Chatbots auf Social-Media-Plattformen weit verbreitet. Aber woher weiß man, dass der eigens entwickelte Chatbot tatsächlich funktioniert?
Wirtschaftsprüfer*innen arbeiten meist noch ohne jegliche Unterstützung von Machine-Learning-Algorithmen. ALI ist ein KI-basiertes Recommender-System, das große Teile des Auditing-Prozesses automatisieren kann und bereits von PriceWaterhouseCoopers GmbH genutzt wird.