{"id":16382,"date":"2024-11-20T10:54:00","date_gmt":"2024-11-20T10:54:00","guid":{"rendered":"https:\/\/lamarr-institute.org\/?post_type=blog&#038;p=16382"},"modified":"2025-11-12T14:53:10","modified_gmt":"2025-11-12T14:53:10","slug":"ki-unternehmen-llm-oder-nicht","status":"publish","type":"blog","link":"https:\/\/lamarr-institute.org\/de\/blog\/ki-unternehmen-llm-oder-nicht\/","title":{"rendered":"LLM oder nicht: Wie Sie die richtige KI-L\u00f6sung f\u00fcr Ihr Unternehmen finden"},"content":{"rendered":"\n<h2 class=\"wp-block-heading\">Einf\u00fchrung: KI bedeutet nicht immer LLM<\/h2>\n\n\n\n<p>In der aktuellen KI-Landschaft ist \u201eLLM\u201c (Large Language Model) zu einem absoluten Buzzword geworden. Seit der Einf\u00fchrung von Modellen wie GPT-3 durch OpenAI im Jahr 2020 sind Unternehmen bestrebt, diese Technologie zu implementieren. Die Einf\u00fchrung von ChatGPT im Jahr 2022 hat den Aufschwung von LLMs noch verst\u00e4rkt und sowohl in der Wissenschaft als auch in den Medien gro\u00dfe Aufmerksamkeit erregt. Diese Modelle, die auf gro\u00dfen Datens\u00e4tzen und immensen Rechenressourcen basieren, haben die Verarbeitung nat\u00fcrlicher Sprache (Natural Language Processing, NLP) revolutioniert und in verschiedenen Bereichen bemerkenswerte F\u00e4higkeiten bewiesen.<\/p>\n\n\n\n<p>LLMs haben nicht nur das Feld der NLP ver\u00e4ndert, sondern auch Innovationen in zahlreichen Branchen angesto\u00dfen. Unternehmen in unz\u00e4hligen Bereichen sind bestrebt, LLMs in ihre Arbeitsabl\u00e4ufe zu integrieren oder auf ihrer Grundlage v\u00f6llig neue Produkte zu entwickeln. Die Medien heizen diesen Enthusiasmus st\u00e4ndig an, indem sie die neuesten Fortschritte und Funktionen hervorheben, die durch LLMs erm\u00f6glicht werden. Diese weit verbreitete Begeisterung hat den Eindruck entstehen lassen, dass der Einsatz von LLM-Technologie unerl\u00e4sslich ist, um wettbewerbsf\u00e4hig zu bleiben.<\/p>\n\n\n\n<p>Die entscheidende Frage ist jedoch: Sind Gro\u00dfe Sprachmodelle (LLMs) wirklich die beste Wahl f\u00fcr <strong>jeden<\/strong> Anwendungsfall?<\/p>\n\n\n\n<p>Tats\u00e4chlich gibt es Szenarien, in denen traditionelle Methoden des maschinellen Lernens (ML) nicht nur effektiver, sondern auch kosteng\u00fcnstiger und praktischer sein k\u00f6nnen. Dieser Artikel beleuchtet, wann der Einsatz von LLMs sinnvoll ist und wann alternative KI-Ans\u00e4tze besser zu Ihren Anforderungen passen. Denn obwohl LLMs unbestreitbar leistungsstark sind, stellen sie keine universelle L\u00f6sung dar. Ein klares Verst\u00e4ndnis ihrer St\u00e4rken und Grenzen erm\u00f6glicht es Ihnen, fundierte Entscheidungen zu treffen und die Technologie auszuw\u00e4hlen, die Ihre individuellen Bed\u00fcrfnisse am besten erf\u00fcllt.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Was ist ein LLM und wie funktioniert es?<\/h2>\n\n\n\n<p>Die Funktionsweise eines gro\u00dfen Sprachmodells (Large Language Model, LLM) l\u00e4sst sich zun\u00e4chst simpel beschreiben: Basierend auf einem Eingabetext, dem sogenannten \u201ePrompt\u201c, sagt das Modell das wahrscheinlichste n\u00e4chste Wort in der Sequenz voraus und generiert es schrittweise, einen Token nach dem anderen. Dieser Prozess, bekannt als <em>autoregressive Sprachmodellierung<\/em>, ist in der folgenden Abbildung dargestellt.&nbsp;<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"911\" height=\"794\" src=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/Abb_1_DE.png\" alt=\"- Lamarr Institute for Machine Learning (ML) and Artificial Intelligence (AI)\" class=\"wp-image-16383\" title=\"\" srcset=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/Abb_1_DE.png 911w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/Abb_1_DE-300x261.png 300w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/Abb_1_DE-768x669.png 768w\" sizes=\"auto, (max-width: 911px) 100vw, 911px\" \/><figcaption class=\"wp-element-caption\">\u00a9 Jannis Spiekermann<br>Abbildung 1: Das LLM erh\u00e4lt einen ersten Prompt und findet das n\u00e4chste wahrscheinlichste Wort. Es f\u00fcgt es dann dem Prompt hinzu und gibt den neuen Text an sich selbst weiter. Dieser Vorgang wird wiederholt bis die End-of-Sequence-Markierung generiert wird.<\/figcaption><\/figure>\n\n\n\n<p>&nbsp;Im Kern \u00fcbernehmen LLMs dieselbe grundlegende Aufgabe wie fr\u00fchere Sprachmodelle. Bereits einfache n-Gramm-Modelle, die von Claude Shannon in den 1940er Jahren entwickelte, folgten dem Prinzip, das n\u00e4chste Wort basierend auf dem vorherigen Kontext vorherzusagen. W\u00e4hrend dieses Grundprinzip unver\u00e4ndert bleibt, liegt die eigentliche Herausforderung darin, W\u00f6rter so zu w\u00e4hlen, dass ein <strong>semantisch sinnvoller und n\u00fctzlicher Text<\/strong> entsteht. Genau in der <strong>Methode der Wortwahl<\/strong> liegt der entscheidende Unterschied moderner LLMs.&nbsp;&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Was hebt LLMs von ihren Vorg\u00e4ngern ab?&nbsp;<\/h3>\n\n\n\n<p>Der Unterschied zu fr\u00fcheren Sprachmodellen l\u00e4sst sich auf drei zentrale Faktoren zur\u00fcckf\u00fchren:&nbsp;&nbsp;<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Umfang<\/strong>: LLMs zeichnen sich durch ihre enorme Anzahl von Parametern aus, die oft im Milliardenbereich liegt. Diese hohe Kapazit\u00e4t erm\u00f6glicht es ihnen, selbst komplexe sprachliche Muster und Nuancen zu modellieren.&nbsp;&nbsp;&nbsp;<\/li>\n\n\n\n<li><strong>Daten<\/strong>: Um ihr Potenzial voll auszusch\u00f6pfen, werden LLMs auf riesigen, vielf\u00e4ltigen Datens\u00e4tzen trainiert, die eine breite Palette an Themen und Sprachstilen abdecken.&nbsp;<\/li>\n\n\n\n<li><strong>Architektur<\/strong>: Moderne LLMs basieren auf der Transformer-Architektur oder deren Variationen, die es ihnen erlaubt, auch weitreichende Abh\u00e4ngigkeiten im Text effizient zu erfassen und zu verarbeiten.&nbsp;<\/li>\n<\/ol>\n\n\n\n<p>Erst die Fortschritte im Distributed Training, also der verteilten Verarbeitung auf zahlreichen GPUs, haben es in den letzten Jahren m\u00f6glich gemacht, Modelle dieser Gr\u00f6\u00dfe zu entwickeln und zu trainieren.&nbsp;<\/p>\n\n\n\n<p>Die Auswirkungen von LLMs sind weitreichend. Sie k\u00f6nnen nicht nur einfache, strukturierte S\u00e4tze wie den im obigen Beispiel generieren, sondern auch komplexe Zusammenh\u00e4nge mit beeindruckender Genauigkeit erfassen und darauf reagieren. Dadurch sind sie \u00e4u\u00dferst vielseitigen Werkzeuge, die in einer Vielzahl von Anwendungsbereichen zum Einsatz kommen k\u00f6nnen.&nbsp;&nbsp;&nbsp;<\/p>\n\n\n\n<p>Weitere Einzelheiten zu LLMs finden Sie in diesem Video von IBM gut erkl\u00e4rt zusammengefasst:&nbsp;<\/p>\n\n\n\n<figure class=\"wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio\"><div class=\"wp-block-embed__wrapper\">\n <div class=\"brlbs-cmpnt-container brlbs-cmpnt-content-blocker brlbs-cmpnt-with-individual-styles\" data-borlabs-cookie-content-blocker-id=\"youtube-content-blocker\" data-borlabs-cookie-content=\"PGlmcmFtZSB0aXRsZT0iSG93IExhcmdlIExhbmd1YWdlIE1vZGVscyBXb3JrIiB3aWR0aD0iNjQwIiBoZWlnaHQ9IjM2MCIgc3JjPSJodHRwczovL3d3dy55b3V0dWJlLW5vY29va2llLmNvbS9lbWJlZC81c0xZQVFTOXNXUT9mZWF0dXJlPW9lbWJlZCIgZnJhbWVib3JkZXI9IjAiIGFsbG93PSJhY2NlbGVyb21ldGVyOyBhdXRvcGxheTsgY2xpcGJvYXJkLXdyaXRlOyBlbmNyeXB0ZWQtbWVkaWE7IGd5cm9zY29wZTsgcGljdHVyZS1pbi1waWN0dXJlOyB3ZWItc2hhcmUiIHJlZmVycmVycG9saWN5PSJzdHJpY3Qtb3JpZ2luLXdoZW4tY3Jvc3Mtb3JpZ2luIiBhbGxvd2Z1bGxzY3JlZW4+PC9pZnJhbWU+\"><div class=\"brlbs-cmpnt-cb-preset-c brlbs-cmpnt-cb-youtube\"> <div class=\"brlbs-cmpnt-cb-thumbnail\" style=\"background-image: url('https:\/\/lamarr-institute.org\/wp-content\/uploads\/borlabs-cookie\/1\/yt_5sLYAQS9sWQ_hqdefault.jpg')\"><\/div> <div class=\"brlbs-cmpnt-cb-main\"> <div class=\"brlbs-cmpnt-cb-play-button\"><\/div> <div class=\"brlbs-cmpnt-cb-content\"> <p class=\"brlbs-cmpnt-cb-description\">Sie sehen gerade einen Platzhalterinhalt von <strong>YouTube<\/strong>. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfl\u00e4che unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.<\/p> <a class=\"brlbs-cmpnt-cb-provider-toggle\" href=\"#\" data-borlabs-cookie-show-provider-information role=\"button\">Mehr Informationen<\/a> <\/div> <div class=\"brlbs-cmpnt-cb-buttons\"> <a class=\"brlbs-cmpnt-cb-btn\" href=\"#\" data-borlabs-cookie-unblock role=\"button\">Inhalt entsperren<\/a> <a class=\"brlbs-cmpnt-cb-btn\" href=\"#\" data-borlabs-cookie-accept-service role=\"button\" style=\"display: inherit\">Erforderlichen Service akzeptieren und Inhalte entsperren<\/a> <\/div> <\/div> <\/div><\/div>\n<\/div><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\">Die Vor- und Nachteile von LLMs im Vergleich zu traditionellen NLP-Modellen<\/h2>\n\n\n\n<p>Ankn\u00fcpfend and die vielseitigen F\u00e4higkeiten von LLMs stellt sich die Frage, wie sie im Vergleich zu traditionellen NLP-Modellen abschneiden. LLMs beeindrucken durch ihre F\u00e4higkeit, komplexe Textanfragen zu verarbeiten und darauf zu reagieren. Sie sind wahre Multitasking-Werkzeug f\u00fcr alle Arten von Textverarbeitungsproblemen: Sie k\u00f6nnen zusammenfassen, \u00fcbersetzen oder sogar an einer lockeren, virtuellen Unterhaltung teilnehmen. Dank ihrer sogenannten \u201eemergenten\u201c F\u00e4higkeit lassen sich mit etwas Kreativit\u00e4t zahlreiche weitere Aufgaben bew\u00e4ltigen. Diese Flexibilit\u00e4t macht sie in vielen Anwendungsbereichen attraktiv.&nbsp;<\/p>\n\n\n\n<p>Im Gegensatz dazu sind traditionelle NLP-Modelle meist spezialisiert. Sie werden f\u00fcr spezifische Aufgaben wie Sentiment-Analyse, maschinelle \u00dcbersetzungen oder Textzusammenfassungen entwickelt und mithilfe annotierter, aufgabenspezifischer Daten optimiert.&nbsp;<\/p>\n\n\n\n<p>Sowohl LLMs als auch traditionelle NLP-Modelle bieten Vorteile und Herausforderungen. Eine bewusste Abw\u00e4gung ihrer St\u00e4rken und Schw\u00e4chen ist entscheidend, um das passende Werkzeug f\u00fcr ein Projekt auszuw\u00e4hlen.&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Vorteile und Nachteile von LLMs<\/h3>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><tbody><tr><td><strong>Vorteile<\/strong><\/td><td><strong>Nachteile<\/strong><\/td><\/tr><tr><td>Hervorragendes Kontextverst\u00e4ndnis&nbsp;<\/td><td>Oft nur \u00fcber eine kostspielige API zug\u00e4nglich (z.B. ChatGPT \/ GPT4o)&nbsp;<\/td><\/tr><tr><td>Multi-Tasking ohne zus\u00e4tzliches Modell-Training oder \u2013Finetuning (Zero- oder Few-Shot-F\u00e4higkeit)&nbsp;<\/td><td>Betrieb In-house erfordert teure Hardware&nbsp;<\/td><\/tr><tr><td>H\u00f6chste Flexibilit\u00e4t&nbsp;<\/td><td>Hohe Latenzzeiten, besonders ohne leistungsstarke Infrastruktur&nbsp;<\/td><\/tr><tr><td>Geeignet f\u00fcr kreative oder offene Aufgaben (z. B. kreatives Schreiben)&nbsp;<\/td><td>Schwierigkeiten bei geschlossenen Ausgabeformaten, kann zu unerw\u00fcnschten oder zu langen Ergebnissen\/Antworten f\u00fchren&nbsp;<\/td><\/tr><tr><td>Minimale Trainingsdaten f\u00fcr Finetuning erforderlich&nbsp;<\/td><td>Begrenzte Kontrolle \u00fcber das Ausgabeformat&nbsp;<\/td><\/tr><tr><td>Effektiv bei unstrukturierten Textdaten&nbsp;<\/td><td>M\u00f6glicherweise wenig pr\u00e4zise bei spezialisierten oder Nischen-Anwendungsf\u00e4llen&nbsp;&nbsp;<\/td><\/tr><tr><td><\/td><td>Neigung zu Halluzinationen (Produktion falscher oder unsinniger Informationen)&nbsp;<\/td><\/tr><tr><td><\/td><td>Schwierig Evaluierung der Ergebnisse&nbsp;<\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\">Vorteile und Nachteile traditioneller NLP-Modelle<\/h3>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><tbody><tr><td><strong>Vorteile<\/strong><\/td><td><strong>Nachteile<\/strong><\/td><\/tr><tr><td>Ressourcenschonend in der Verarbeitung&nbsp;<\/td><td>Keine emergenten F\u00e4higkeiten (Multi-Task-F\u00e4higkeit ohne weiteres Training)&nbsp;<\/td><\/tr><tr><td>Schnellere Inferenzzeiten&nbsp;<\/td><td>F\u00fcr jede neue Aufgabe muss ein eigenes Modell trainiert werden&nbsp;<\/td><\/tr><tr><td>Einfaches Selbst-Hosting und unkomplizierte Bereitstellung&nbsp;<\/td><td>Hoher Bedarf an aufgabenspezifischen Daten, um gute Ergebnisse zu liefern&nbsp;<\/td><\/tr><tr><td>Ideal f\u00fcr feste Ausgabeformate (z. B. Klassifizierung)&nbsp;<\/td><td>Weniger leistungsf\u00e4hig bei Sprachgenerierung<\/td><\/tr><tr><td>Gut geeignet f\u00fcr strukturierte, sich wiederholende Aufgaben&nbsp;<\/td><td><\/td><\/tr><tr><td>In-house-Training ohne \u00fcberm\u00e4\u00dfige Ressourcen m\u00f6glich&nbsp;<\/td><td><\/td><\/tr><tr><td>Leichtere Anpassung an spezifische Anwendungsf\u00e4lle oder Branchen&nbsp;<\/td><td><\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<p>Das Verst\u00e4ndnis der Vor- und Nachteile von LLMs und traditionellen NLP-Modellen bildet die Grundlage, um die passende Technologie f\u00fcr Ihr Projekt auszuw\u00e4hlen. Doch wie l\u00e4sst sich diese Erkenntnis praktisch anwenden?<\/p>\n\n\n\n<p>Der folgende Decision Guide bietet einen strukturierten Ansatz, um basierend auf den zuvor erl\u00e4uterten Kriterien zu entscheiden, ob ein LLM oder eine andere NLP-Methode besser f\u00fcr Ihren Anwendungsfall geeignet ist.&nbsp;<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Decision Guide: Sollten Sie ein LLM nutzen?<\/h2>\n\n\n\n<p>Der nachstehende Entscheidungsbaum hilft Ihnen, die wichtigsten Faktoren bei der Wahl der richtigen Technologie zu ber\u00fccksichtigen. Er basiert auf den im vorigen Abschnitt beschriebenen Vor- und Nachteilen und f\u00fchrt Sie Schritt f\u00fcr Schritt durch zentrale Fragestellungen<\/p>\n\n\n\n<figure class=\"wp-block-gallery has-nested-images columns-default is-cropped wp-block-gallery-2 is-layout-flex wp-block-gallery-is-layout-flex\">\n<figure data-wp-context=\"{&quot;imageId&quot;:&quot;69f236fea4be3&quot;}\" data-wp-interactive=\"core\/image\" data-wp-key=\"69f236fea4be3\" class=\"wp-block-image size-large wp-lightbox-container\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"512\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on--click=\"actions.showLightbox\" data-wp-on--load=\"callbacks.setButtonStyles\" data-wp-on-window--resize=\"callbacks.setButtonStyles\" data-id=\"16385\" src=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/\/Decision-Tree_1_de-1024x512.png\" alt=\"- Lamarr Institute for Machine Learning (ML) and Artificial Intelligence (AI)\" class=\"wp-image-16385\" title=\"\" srcset=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/Decision-Tree_1_de-1024x512.png 1024w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/Decision-Tree_1_de-300x150.png 300w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/Decision-Tree_1_de-768x384.png 768w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/Decision-Tree_1_de.png 1200w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><button\n\t\t\tclass=\"lightbox-trigger\"\n\t\t\ttype=\"button\"\n\t\t\taria-haspopup=\"dialog\"\n\t\t\taria-label=\"Vergr\u00f6\u00dfern\"\n\t\t\tdata-wp-init=\"callbacks.initTriggerButton\"\n\t\t\tdata-wp-on--click=\"actions.showLightbox\"\n\t\t\tdata-wp-style--right=\"state.imageButtonRight\"\n\t\t\tdata-wp-style--top=\"state.imageButtonTop\"\n\t\t>\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewBox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\" \/>\n\t\t\t<\/svg>\n\t\t<\/button><figcaption class=\"wp-element-caption\">Abbildung 2: Folgen Sie den Fragen Schritt f\u00fcr Schritt, um herauszufinden, ob der Einsatz eines LLMs f\u00fcr Ihren Anwendungsfall sinnvoll ist. \u00a9 Jannis Spiekermann<\/figcaption><\/figure>\n<\/figure>\n\n\n\n<p>Obwohl dieser Entscheidungsbaum einen hilfreichen Orientierungsrahmen bietet, deckt er nicht alle m\u00f6glichen Anwendungsf\u00e4lle oder Produktideen ab. Ebenso kann die Reihenfolge der Fragen je nach Kontext variieren In der Praxis sind viele Anwendungsf\u00e4lle komplex und erfordern eine flexible Anpassung der Entscheidungslogik oder eine differenziertere Analyse. Der Baum dient daher als Ausgangspunkt, den Sie an Ihre spezifischen Anforderungen anpassen k\u00f6nnen.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Der folgende Abschnitt veranschaulicht die Anwendung des Entscheidungsbaums anhand von drei Anwendungsbeispielen.&nbsp;<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Anwendung des Decision Guides Anhand von Drei Beispielen<\/h2>\n\n\n\n<p>Um die Anwendung des Entscheidungsbaums zu veranschaulichen, betrachten wir drei konkrete Szenarien:<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Beispiel 1: Code Suggestion Tool<\/h3>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><tbody><tr><td>M\u00f6chte ich komplexe (kreative) Texte generieren? \u2192 <strong>Ja<\/strong><\/td><\/tr><tr><td><strong><em>Entscheidung: <\/em>Large Language Model (LLM)<\/strong><\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<p><strong>Erl\u00e4uterung:<\/strong> Code Suggestion Tools nutzen in der Regel Quellcode als Eingabe und generieren hilfreiche Vorschl\u00e4ge f\u00fcr die n\u00e4chsten Schritte. Diese Vorschl\u00e4ge sind sehr unterschiedlich und reichen von einem einzelnen Kommentar oder einer logischen n\u00e4chsten Codezeile bis hin zu ganzen Funktionen oder Codebl\u00f6cken. Da diese Aufgabe die Generierung von komplexem Text (d. h. Quellcode) erfordert, ist ein LLM die richtige Wahl.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Beispiel 2: On-Device Themenklassifikation in einer Mobilen App<\/h3>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><tbody><tr><td>M\u00f6chte ich komplexe (kreative) Texte generieren? \u2192 <strong>Ja<\/strong><\/td><\/tr><tr><td>Bin ich bereit f\u00fcr wiederkehrende API-Aufrufe oder teure Hardware zu bezahlen? \u2192 <strong>Nein<\/strong><\/td><\/tr><tr><td>Kann ich gelabelte Trainingsdaten erhalten? \u2192 <strong>Ja<\/strong><\/td><\/tr><tr><td><strong><em>Entscheidung:<\/em> Traditionelle NLP-Methode (z.B. Encoder-basierter Transformer zur Klassifikation)<\/strong><\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<p><strong>Erl\u00e4uterung:<\/strong> Themenklassifikation ist keine generative Aufgabe. LLMs sind zwar in der Lage, Themenklassifikation zu bew\u00e4ltigen, aber ihre Verwendung geht mit einem hohen Ressourcenbedarf einher. In diesem Beispiel gehen wir davon aus, dass annotierte Trainingsdaten zur Verf\u00fcgung stehen. Daher eignet sich hier ein Encoder-basiertes Modell besser, da es effizienter arbeitet und weniger Ressourcen ben\u00f6tigt.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Beispiel 3: ASR Transcript Correction<\/h3>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><tbody><tr><td>M\u00f6chte ich komplexe (kreative) Texte generieren? \u2192 <strong>Ja<\/strong><\/td><\/tr><tr><td>Bin ich bereit f\u00fcr wiederkehrende API-Aufrufe oder teure Hardware zu bezahlen? \u2192 <strong>Ja<\/strong><\/td><\/tr><tr><td>M\u00f6chte ich viele verschiedene textbezogene Aufgaben l\u00f6sen? \u2192 <strong>Nein<\/strong><\/td><\/tr><tr><td>Ben\u00f6tige ich Inferenz mit geringer Latenz? \u2192 <strong>Nein<\/strong><\/td><\/tr><tr><td>Ben\u00f6tige ich hohe Kontrolle \u00fcber das Ausgabeformat? \u2192 <strong>Ja<\/strong><\/td><\/tr><tr><td><strong><em>Entscheidung:<\/em><\/strong> Traditionelle NLP-Methode<\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<p><strong>Erl\u00e4uterung:<\/strong> Automatische Spracherkennungssysteme (ASR) produzieren manchmal fehlerhafte Transkripte. Die Herausforderung besteht darin, die fehlerhaften W\u00f6rter zu korrigieren, w\u00e4hrend der Rest des Textes unver\u00e4ndert bleibt. Es handelt sich also nicht unbedingt um eine generative Aufgabe, vielmehr kann sie als Klassifikationsproblem behandelt werden. In diesem Szenario gehen wir davon aus, dass wir bereit sind, f\u00fcr teure Hardware zu bezahlen, und dass wir keine niedrige Latenzzeit ben\u00f6tigen. LLMs bieten jedoch kein festes Ausgabeformat, und es ist schwierig, sie dazu zu bringen, die Generierung an einem bestimmten Punkt zu beenden. Dies k\u00f6nnte dazu f\u00fchren, dass nicht nur das ASR-Transkript verbessert wird, sondern auch mehr unerw\u00fcnschter Text erzeugt wird. Aus diesem Grund eignet sich ein Klassifizierungsmodell besser f\u00fcr diesen Anwendungsfall, da es pr\u00e4zise und kontrollierte Korrekturen ohne zus\u00e4tzliche, unerw\u00fcnschte Ausgabe gew\u00e4hrleistet.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Mehr als nur Text: Kann ein LLM bei Ihren Daten helfen?<\/h2>\n\n\n\n<p>LLMs sind beeindruckend, wenn es um die Verarbeitung von Text geht. Doch in der Praxis arbeiten viele Unternehmen mit unterschiedlichsten Datentypen \u2013 von Bildern und Audiodaten bis hin zu tabellarischen Informationen. Diese sogenannten Modalit\u00e4ten erfordern spezialisierte Ans\u00e4tze, da textbasierte Modelle wie LLMs oft an ihre Grenzen sto\u00dfen, wenn es um die Verarbeitung nicht-textueller Daten geht.<\/p>\n\n\n\n<p>Obwohl die Forschung an multimodalen Modellen, die Text, Bild und Audio kombinieren, vielversprechend ist, befinden sich diese Technologien noch in einer experimentellen Phase. F\u00fcr konkrete Anwendungsf\u00e4lle ist es derzeit ratsamer, auf erprobte KI-Modelle zu setzen, die speziell f\u00fcr bestimmte Datentypen entwickelt wurden.<\/p>\n\n\n\n<p>Der nachstehende Entscheidungsbaum bietet eine Orientierungshilfe f\u00fcr die Auswahl des geeigneten KI-Modells f\u00fcr verschiedene Datentypen.<\/p>\n\n\n\n<figure class=\"wp-block-gallery has-nested-images columns-default is-cropped wp-block-gallery-3 is-layout-flex wp-block-gallery-is-layout-flex\">\n<figure data-wp-context=\"{&quot;imageId&quot;:&quot;69f236fea5b95&quot;}\" data-wp-interactive=\"core\/image\" data-wp-key=\"69f236fea5b95\" class=\"wp-block-image size-large wp-lightbox-container\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"512\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on--click=\"actions.showLightbox\" data-wp-on--load=\"callbacks.setButtonStyles\" data-wp-on-window--resize=\"callbacks.setButtonStyles\" data-id=\"16387\" src=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/\/Decision-Tree_2_de-1024x512.png\" alt=\"- Lamarr Institute for Machine Learning (ML) and Artificial Intelligence (AI)\" class=\"wp-image-16387\" title=\"\" srcset=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/Decision-Tree_2_de-1024x512.png 1024w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/Decision-Tree_2_de-300x150.png 300w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/Decision-Tree_2_de-768x384.png 768w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/Decision-Tree_2_de.png 1200w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><button\n\t\t\tclass=\"lightbox-trigger\"\n\t\t\ttype=\"button\"\n\t\t\taria-haspopup=\"dialog\"\n\t\t\taria-label=\"Vergr\u00f6\u00dfern\"\n\t\t\tdata-wp-init=\"callbacks.initTriggerButton\"\n\t\t\tdata-wp-on--click=\"actions.showLightbox\"\n\t\t\tdata-wp-style--right=\"state.imageButtonRight\"\n\t\t\tdata-wp-style--top=\"state.imageButtonTop\"\n\t\t>\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewBox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\" \/>\n\t\t\t<\/svg>\n\t\t<\/button><figcaption class=\"wp-element-caption\">Abbildung 3: Entscheidungsbaum zur Auswahl geeigneter KI-Modelle nach Datentyp \u00a9 Jannis Spiekermann<\/figcaption><\/figure>\n<\/figure>\n\n\n\n<p>Die Grafik verdeutlicht, dass LLMs nur eine von vielen KI-Technologien sind. Je nach Art der Daten sind verschiedene spezialisierte L\u00f6sungen, wie z. B. Convolutional Neural Networks (CNNs) f\u00fcr Bilder oder Recurrent Neural Networks (RNNs) f\u00fcr sequenzielle Daten, oft besser geeignet.<\/p>\n\n\n\n<p>Interessanterweise wird auch in diesen Bereichen die Transformer-Architektur zunehmend eingesetzt, die urspr\u00fcnglich die Grundage f\u00fcr LLMs bildete. Diese neuen Modelle bieten eine vielversprechende Weiterentwicklung. Allerdings unterscheiden sie sich in ihrer Optimierung stark von LLMs, da sie auf spezifische Aufgaben wie Bilderkennung oder Audioanalyse zugeschnitten sind.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Fazit: Die richtige L\u00f6sung f\u00fcr jede Modalit\u00e4t<\/h2>\n\n\n\n<p>Die F\u00e4higkeit von LLMs, komplexe Textabfragen zu verarbeiten und darauf zu reagieren, macht sie zu vielseitigen Multi-Task-Werkzeugen f\u00fcr eine Vielzahl von Textverarbeitungsaufgaben. Wie in diesem Blogbeitrag erl\u00e4utert, sind sie jedoch nicht f\u00fcr jeden Anwendungsfall die ideale Wahl. Trotz ihrer Leistungsf\u00e4higkeit bringen sie auch Einschr\u00e4nkungen mit sich.<\/p>\n\n\n\n<p>Wenn Sie KI in ein Produkt oder einen Prozess integrieren m\u00f6chten, ist es daher unerl\u00e4sslich, auch alternative (Textverarbeitungs-)L\u00f6sungen in Betracht zu ziehen \u2013 insbesondere dann, wenn Sie mit nicht-textuellen Daten oder anderen Datenmodalit\u00e4ten arbeiten. F\u00fcr solche F\u00e4lle bieten spezialisierte Modelle oft effizientere und pr\u00e4zisere Ergebnisse.<\/p>\n\n\n\n<p>Damit Sie eine fundierte Entscheidung treffen k\u00f6nnen, dient dieser Beitrag als eine Art Entscheidungshilfe f\u00fcr textuelle Daten. Mithilfe der enthaltenen Entscheidungsb\u00e4ume k\u00f6nnen Sie die optimale L\u00f6sung f\u00fcr Ihren Anwendungsfall identifizieren. F\u00fcr multimodale Daten verweisen wir auf den vorherigen Abschnitt und den Leitfaden zur KI-Bedarfsanalyse, den Sie am Ende dieses Beitrags herunterladen k\u00f6nnen.<\/p>\n\n\n\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link wp-element-button\" href=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/ML-Blog_KI_Losungen_Leitfaden.pdf\" target=\"_blank\" rel=\"noreferrer noopener\">kostenfreier Download<\/a><\/div>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>Ben\u00f6tigt Ihr Anwendungsfall wirklich die Leistung eines LLMs, oder k\u00f6nnte traditionelles maschinelles Lernen eine bessere, effizientere L\u00f6sung bieten? Finden Sie heraus, welcher KI-Ansatz am besten zu Ihren Gesch\u00e4ftsanforderungen passt.<\/p>\n","protected":false},"author":22,"featured_media":16390,"template":"","meta":{"_acf_changed":false,"footnotes":""},"blog-category":[1416,546],"blog-tag":[1519,1530,1551,1559,1598],"class_list":["post-16382","blog","type-blog","status-publish","has-post-thumbnail","hentry","blog-category-alle-blogbeitraege","blog-category-anwendung","blog-tag-industrie-4-0","blog-tag-ki-in-der-wirtschaft","blog-tag-large-language-models-llms-de","blog-tag-nlp-de","blog-tag-sprachmodelle"],"acf":[],"publishpress_future_workflow_manual_trigger":{"enabledWorkflows":[]},"_links":{"self":[{"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog\/16382","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog"}],"about":[{"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/types\/blog"}],"author":[{"embeddable":true,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/users\/22"}],"version-history":[{"count":0,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog\/16382\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/media\/16390"}],"wp:attachment":[{"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/media?parent=16382"}],"wp:term":[{"taxonomy":"blog-category","embeddable":true,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog-category?post=16382"},{"taxonomy":"blog-tag","embeddable":true,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog-tag?post=16382"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}