{"id":12324,"date":"2024-05-22T07:27:53","date_gmt":"2024-05-22T07:27:53","guid":{"rendered":"https:\/\/lamarr-institute.org\/?post_type=blog&#038;p=12324"},"modified":"2025-11-12T14:53:11","modified_gmt":"2025-11-12T14:53:11","slug":"live-asr-software","status":"publish","type":"blog","link":"https:\/\/lamarr-institute.org\/de\/blog\/live-asr-software\/","title":{"rendered":"Live-ASR-Software erm\u00f6glicht barrierefreie Plenarsitzungen im S\u00e4chsischen Landtag"},"content":{"rendered":"\n<p>Der S\u00e4chsische Landtag hat sich vorgenommen, die Zug\u00e4nglichkeit seiner Plenarsitzungen zu verbessern, um dem gesellschaftlichen Bed\u00fcrfnis nach Barrierefreiheit zu entsprechen. Um dies zu erreichen, hat das Parlament eine Software zur automatischen Live-Spracherkennung (Englisch: Automatic Speech Recognition, kurz: ASR) eingef\u00fchrt, die einen wichtigen Schritt zur Gew\u00e4hrleistung der Barrierefreiheit darstellt. Diese Technologie erm\u00f6glicht es, gesprochene Sprache in Echtzeit in digitalen Text umzuwandeln, was ein wichtiges Instrument f\u00fcr die Live-Untertitelung darstellt. Live-ASR erleichtert nicht nur die Teilnahme von H\u00f6rgesch\u00e4digten, indem sie das Gesprochene w\u00e4hrend der Debatten lesen k\u00f6nnen, sondern ist auch ein Zeichen f\u00fcr ein breiteres Engagement f\u00fcr digitale Inklusion im Gesetzgebungsprozess. <\/p>\n\n\n\n<p>In diesem Blogbeitrag gehen wir auf die spezifischen Anforderungen ein, die den S\u00e4chsischen Landtag zur Einf\u00fchrung der ASR-Technologie veranlasst haben. Im Anschluss daran wird detailliert er\u00f6rtert, wie die Software an das einzigartige Vokabular der Landesparlamente und den s\u00e4chsischen Dialekt angepasst wurde, wie sie in die parlamentarische Infrastruktur integriert wurde und welche Vorteile sich aus der Einf\u00fchrung der Software f\u00fcr die Digitalisierung im Allgemeinen ergaben.<\/p>\n\n\n\n<figure class=\"wp-block-video\"><video controls src=\"https:\/\/www.iais.fraunhofer.de\/content\/dam\/iais\/gf\/st\/live-asr\/LandtagSachsen.mp4\"><\/video><figcaption class=\"wp-element-caption\"><em>Nehmen Sie sich einen Moment Zeit, um einen Einblick in eine typische Anwendung der Fraunhofer Live-ASR-Technologie im S\u00e4chsischen Landtag zu erhalten: Die Live- Untertitelung des s\u00e4chsischen Dialekts (Video auf Deutsch).<\/em><\/figcaption><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\">Warum barrierefreie Plenarsitzungen wichtig sind: Das Beispiel des S\u00e4chsischen Landtags<\/h2>\n\n\n\n<p>Barrierefreie Plenarsitzungen sind entscheidend f\u00fcr eine gleichberechtigte Teilnahme an den Parlamentsdebatten. Dazu geh\u00f6rt, dass neben Live-Streams auch Abschriften zur Verf\u00fcgung gestellt werden, um Menschen mit H\u00f6rbeeintr\u00e4chtigungen gerecht zu werden.<\/p>\n\n\n\n<p>Herr Kindler, Referatsleiter Informationstechnik des S\u00e4chsischen Landtags, betonte die Notwendigkeit einer automatisierten Live-Untertitelung, um die verschiedenen Dialekte und die von den Abgeordneten verwendete Fachterminologie korrekt wiederzugeben. Um die sprachlichen Herausforderungen des s\u00e4chsischen Dialekts und die Notwendigkeit einer pr\u00e4zisen Transkription politischer und juristischer Begriffe zu bew\u00e4ltigen, suchte der Landtag nach einer L\u00f6sung, die Genauigkeit und Effizienz gew\u00e4hrleistet. Das Fraunhofer IAIS wurde ausgew\u00e4hlt, um eine ma\u00dfgeschneiderte Live-ASR-Software f\u00fcr diese Anforderungen zu liefern. Die genaue Transkription des komplexen s\u00e4chsischen Dialekts und der politischen Fachterminologie erforderte eine Software, die in der Lage ist, verschiedene Dialekte zu entziffern und eine niedrige Wortfehlerrate (Englisch: Word Error Rate, kurz: WER) zu gew\u00e4hrleisten. Dar\u00fcber hinaus musste die Datensicherheit und -kontrolle gew\u00e4hrleistet werden, weswegen ein \u201eOn-Premise Deployment\u201c bevorzugt war.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Die ASR-Software<\/h2>\n\n\n\n<p>Die vom Fraunhofer IAIS entwickelte Live-ASR-Software wurde so angepasst, dass sie die Herausforderungen der Echtzeit-Transkription in komplizierten sprachlichen Kontexten problemlos bew\u00e4ltigen konnte. Durch die Nutzung von Fachwissen im Bereich der Sprachanalyse und des Maschinellen Lernens kann die Software die Nuancen des s\u00e4chsischen Dialekts effektiv interpretieren und die parlamentarische Terminologie pr\u00e4zise transkribieren. Dies erm\u00f6glichte die Live-Untertitelung der Plenarsitzungen und trug zu den Digitalisierungsbem\u00fchungen im S\u00e4chsischen Landtag bei.<\/p>\n\n\n\n<p>Die Live-ASR-Technologie, die von Wissenschaftler*innen der Lamarr-Partnereinrichtung Fraunhofer IAIS entwickelt wurde, ist auf die Echtzeitumwandlung von Sprache in digitalen Text spezialisiert, selbst in schwierigen Umgebungen mit Hintergrundger\u00e4uschen oder Dialekten. Die Technologie unterst\u00fctzt Deutsch und Englisch, ist f\u00fcr spezifische Anwendungen anpassbar und kann in Umgebungen mit einer Vielzahl von unterschiedlichen Ger\u00e4uschen eingesetzt werden. Sie bietet Vorteile wie eine vor Ort oder Cloud-basierte Bereitstellung, die Anpassung an Dialekte oder Fachvokabular und eine hohe Datensicherheit. Sie findet in verschiedenen Bereichen Anwendung, darunter das bereits erw\u00e4hnte Parlament, in der Rundfunkbranche und sogar als Sprachassistent in Call-Centern und in anderen sprachgesteuerten Anwendungen. <\/p>\n\n\n\n<p>Die automatische Spracherkennung (ASR) funktioniert, indem sie ein Audiosignal aufnimmt, in diesem Fall den\/die Sprecher*in einer Parlamentsdebatte. Anschlie\u00dfend wird das Signal digitalisiert, und dieses digitale Signal auf phonetische Einheiten abgebildet. Dies geschieht mithilfe eines hybriden akustischen Modells, das aus einem neuronalen Netz und sogenannten Hidden Markov-Modellen (HMM) besteht. Im Anschluss gibt das Hybridmodell Phoneme aus, also zum Beispiel \/\u02c8k\/, \/a\/, \/t\u0361s\/, und \/\u0259\/, f\u00fcr das Wort Katze. Als N\u00e4chstes setzt ein Lexikon ein, das W\u00f6rter und ihre phonetische Repr\u00e4sentation enth\u00e4lt, sowie ein Sprachmodell, das die Wahrscheinlichkeit vorhersagt, mit der ein Wort angesichts des Kontexts, in dem es steht, z. B. der zuvor erkannten W\u00f6rter als &#8222;Katze&#8220;, erkannt werden k\u00f6nnte. Dies alles geschieht in weniger als einer halben Sekunde und mit minimalen Hardwareanforderungen. Es gibt auch neuere Modellarchitekturen, die dem neuesten Stand der Technik entsprechen, die hier beschriebene Architektur wurde jedoch wegen ihres minimalen Ressourcenbedarfs (1 einzelner CPU-Kern) f\u00fcr die Echtzeit-Erkennung ausgew\u00e4hlt, wobei eine sehr hohe Genauigkeit gew\u00e4hrleistet ist. Das Zusammenspiel des akustischen Modells, Lexikons und Sprachmodells ist in der folgenden Grafik dargestellt:<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"558\" src=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/\/Bild1_DE-1024x558.png\" alt=\"- Lamarr Institute for Machine Learning (ML) and Artificial Intelligence (AI)\" class=\"wp-image-12328\" title=\"\" srcset=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/Bild1_DE-1024x558.png 1024w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/Bild1_DE-300x163.png 300w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/Bild1_DE-768x418.png 768w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/Bild1_DE.png 1437w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><figcaption class=\"wp-element-caption\">\u00a9 Fraunhofer IAIS &#8211; Ein Beispiel, wie ein akustisches Modell, ein Lexikon und ein Sprachmodell zusammenarbeiten, um gesprochenen Text zu erkennen. Oben das Audio-Eingangssignal, unten die gesprochene Textausgabe.<\/figcaption><\/figure>\n\n\n\n<p>Ein weiterer Vorteil der oben beschriebenen Architektur ist die einfache Anpassbarkeit: Jedes Modell kann separat trainiert werden. Dies erm\u00f6glicht eine optimale Anpassung an den jeweiligen Anwendungsfall. Das akustische Modell wurde auf einer riesigen Sammlung von Audioaufnahmen in einer Vielzahl von Umgebungen, mit unterschiedlichen Ger\u00e4uschbedingungen und Akzenten trainiert, mit entsprechenden (phonetischen) Transkriptionen. Das Ergebnis ist ein sehr (ger\u00e4usch-)robustes akustisches Modell. Das phonetische Lexikon kann regelm\u00e4\u00dfig mit Text und entsprechenden phonetischen Darstellungen aus einer Vielzahl von Quellen aktualisiert werden, die entweder automatisch erstellt oder manuell kuratiert wurden. Durch diese einfache Aktualisierung des Lexikons kann der Erkenner neu auftretende W\u00f6rter einbeziehen, ohne dass akustische Daten oder ein neues Training des akustischen Modells erforderlich sind. Auf diese Weise konnten insbesondere die speziellen politischen und lokalen Begriffe einbezogen werden. Schlie\u00dflich wird das Sprachmodell auf einem sehr gro\u00dfen Korpus von Textdaten trainiert, ohne dass akustische Aufnahmen oder phonetische Darstellungen erforderlich sind, wodurch problemlos spezielle politische und lokale Ausdr\u00fccke aus Protokollen fr\u00fcherer Parlamentssitzungen, politischen Texten und anderen lokalen Quellen, z. B. Zeitungen, einbezogen werden konnten. All diese Anpassungen gew\u00e4hrleisten ein hohes Qualit\u00e4tsniveau f\u00fcr das eingesetzte System und erm\u00f6glichen regelm\u00e4\u00dfige Aktualisierungen, insbesondere des Lexikons und des Sprachmodells, um neue aktuelle Begriffe und Phrasen aufzunehmen. Diese Anpassung wird im n\u00e4chsten Abschnitt n\u00e4her beschrieben.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Anpassungen<\/h2>\n\n\n\n<p>Bei der Implementierung der ASR-Software f\u00fcr die Transkription im S\u00e4chsischen Landtag stellte die genaue Transkription des s\u00e4chsischen Dialekts und des parlamentarischen Wortschatzes eine gro\u00dfe Herausforderung dar. Dies erforderte eine umfangreiche Anpassung und Evaluierung des ASR-Systems unter Verwendung von Textprotokollen und Videoaufzeichnungen fr\u00fcherer Parlamentsdebatten. (F\u00fcr diejenigen, die weitere Einblicke in das Training von ASR-Modellen suchen, haben unsere Kollegen dieses Thema in einem <a href=\"https:\/\/lamarr-institute.org\/de\/blog\/automatische-spracherkennung-entwicklung\/\">fr\u00fcheren Blogbeitrag<\/a> ausf\u00fchrlich behandelt. Die Textprotokolle, die spezifisches Vokabular f\u00fcr parlamentarische Kontexte enthalten, dienten als ideale Trainingsdaten. Durch die Analyse vorhandener Videoaufnahmen und der entsprechenden Protokolle wurde das ASR-System w\u00e4hrend und nach dem Training iterativ verfeinert.<\/p>\n\n\n\n<p>Dieser iterative Prozess beinhaltete die Feinabstimmung der Software mit einer Vielzahl von parlamentarischen Reden, was zu einem ma\u00dfgeschneiderten Wortschatz f\u00fchrte, der auf die in den Debatten diskutierten Themen zugeschnitten war. Dazu geh\u00f6rten Abgeordnetennamen, politische und juristische Fachbegriffe und sogar s\u00e4chsische Fachbegriffe. Zur Feinabstimmung wurden dem Trainingsalgorithmus gro\u00dfe Mengen an Text- und teilweise auch Audiodaten zur Verf\u00fcgung gestellt. Analog zum menschlichen Lernen aus Text- und Audiobeispielen brachte der Trainingsalgorithmus dem Spracherkennungsmodell bei, bestimmte Begriffe und Akzente besser zu verstehen. <\/p>\n\n\n\n<p>Nach erfolgreicher Anpassung hat Lamarrs Partnerinstitut Fraunhofer IAIS in Zusammenarbeit mit dem S\u00e4chsischen Landtag eine Testphase der Software eingeleitet, die der vollst\u00e4ndigen Implementierung vorausging.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Integration der Live-ASR-Software: Implementierung und Funktionsweise<\/h2>\n\n\n\n<p>Das Spracherkennungssystem wurde in die bestehende Aufzeichnungs- und Streaming-Infrastruktur des S\u00e4chsischen Landtags integriert. Zu diesem Zweck wurde die ASR-Software als On-Premise-Installation auf einem Server im Rechenzentrum des Landtags installiert. Audio- bzw. Videostr\u00f6me von redundanten Streaming-Servern wurden anschlie\u00dfend mit dem ASR-System verbunden. Nach der Verarbeitung erstellte das Spracherkennungssystem ein Transkript f\u00fcr den Audiostrom. Die Erkennungsergebnisse wurden dann \u00fcber eine spezielle Ausgangsverbindung vom ASR-System in ein Textfeld auf der Live-Stream-Website zusammen mit dem Live-Video \u00fcbertragen. Das Textfeld enth\u00e4lt das gesamte Transkript, so dass man zur\u00fcckbl\u00e4ttern und den gesamten Kontext des Vortrags verfolgen kann. Die folgende Grafik gibt einen \u00dcberblick \u00fcber das gesamte System.\u00a0 Eine weitere zweite Option, um Transkripte direkt in den Audio-\/Videostream einzuf\u00fcgen, war geplant und ist in der Grafik dargestellt. Obwohl die Ausgabe innerhalb des Videos geplant war, wurde f\u00fcr den S\u00e4chsischen Landtag nur die Textfeldausgabe implementiert, um ein Zur\u00fcckbl\u00e4ttern im Transkript zu erm\u00f6glichen und einen l\u00e4ngeren Textzusammenhang anzuzeigen, da dies von den Nutzer*innen als brauchbarer empfunden wurde.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full is-resized\"><img loading=\"lazy\" decoding=\"async\" width=\"627\" height=\"238\" src=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/Bild2_DE.png\" alt=\"- Lamarr Institute for Machine Learning (ML) and Artificial Intelligence (AI)\" class=\"wp-image-12332\" style=\"width:605px;height:auto\" title=\"\" srcset=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/Bild2_DE.png 627w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/Bild2_DE-300x114.png 300w\" sizes=\"auto, (max-width: 627px) 100vw, 627px\" \/><figcaption class=\"wp-element-caption\">\u00a9 Fraunhofer IAIS &#8211; Das Server-Netzwerk-Layout im S\u00e4chsischen Landtag<br>Und der folgende Screenshot zeigt die endg\u00fcltige Umsetzung auf der Website des S\u00e4chsischen Landtags:<\/figcaption><\/figure>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"781\" src=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/\/Bild3-1-1024x781.jpg\" alt=\"- Lamarr Institute for Machine Learning (ML) and Artificial Intelligence (AI)\" class=\"wp-image-12320\" title=\"\" srcset=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/Bild3-1-1024x781.jpg 1024w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/Bild3-1-300x229.jpg 300w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/Bild3-1-768x585.jpg 768w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/Bild3-1.jpg 1384w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><figcaption class=\"wp-element-caption\">\u00a9 Fraunhofer IAIS &#8211; Ein Screenshot, wie die Fraunhofer Live-ASR-L\u00f6sung auf der Website des S\u00e4chsischen Landtags eingesetzt wird.<\/figcaption><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\">Bedeutung und zuk\u00fcnftige Trends: Die Auswirkungen der Live-ASR-Implementierung<\/h2>\n\n\n\n<p>Die Einf\u00fchrung der Live-ASR-Software hatte erhebliche Auswirkungen, insbesondere f\u00fcr h\u00f6rgesch\u00e4digte Personen, da die Plenarsitzungen in Echtzeit untertitelt werden k\u00f6nnen. Diese M\u00f6glichkeit verbessert nicht nur das unmittelbare Verst\u00e4ndnis und Engagement der Teilnehmenden, sondern wird durch Live-Streaming-Dienste auch auf ein breiteres Publikum ausgeweitet und gew\u00e4hrleistet so Inklusion und Transparenz in der Verwaltung. Es sei darauf hingewiesen, dass der S\u00e4chsische Landtag die Live-ASR-Technologie freiwillig eingef\u00fchrt hat, w\u00e4hrend die Europ\u00e4ische Union 2019 den Europ\u00e4ischen Rechtsakt zur Barrierefreiheit (EAA) verabschiedet hat, der darauf abzielt, Produkte und Dienstleistungen f\u00fcr Menschen mit Behinderungen und \u00e4ltere Menschen besser zug\u00e4nglich zu machen. Dazu geh\u00f6rt auch der Zugang zu audiovisuellen Mediendiensten, so dass ein potenzieller Anstieg der Nachfrage nach ASR-Implementierungen zur Erf\u00fcllung der gesetzlichen Anforderungen bis 2030 zu erwarten ist.<\/p>\n\n\n\n<p>Neben der besseren Zug\u00e4nglichkeit der Debatten f\u00fcr Zuschauende und Interessierte ergab sich aus der Implementierung auch ein unvorhergesehener Nutzen. Wie Herr Kindler erw\u00e4hnt: <em>W<\/em><em>as urspr\u00fcnglich gar nicht angedacht war, trat ein: Die hervorragende Texterkennung wurde auch f\u00fcr die Protokollerstellung entdeckt. Wir sind daher auf dem Weg zusammen mit dem IAIS diese Funktionen aufzugreifen, um mit weniger personellem Aufwand schneller als bisher Protokolle der Sitzungen und auch der Aussch\u00fcsse des S\u00e4chsischen Landtags erstellen zu k\u00f6nnen. <\/em>Hier zeigt sich die Vielfalt, die eine ASR-L\u00f6sung bieten kann. Da die Live-ASR-Technologie von so guter Qualit\u00e4t ist, wird der S\u00e4chsische Landtag sie auch f\u00fcr andere Zwecke nutzen, in diesem Fall f\u00fcr die Erstellung von Debattenprotokollen, was den arbeitsintensiven Aufwand f\u00fcr den S\u00e4chsischen Landtag verringert.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Schlussfolgerung: Die Auswirkungen der Live-ASR-Software auf die Governance<\/h2>\n\n\n\n<p>Dieses Projekt dient als Beispielprojekt f\u00fcr andere Landtage und Veranstalter und verdeutlicht das transformative Potenzial der Live-ASR-Software in der Verwaltung. Die On-Premise-Bereitstellung, die Anpassung von Dialekten und Fachvokabular sowie die hohe Qualit\u00e4t der Software haben sie zu einer geeigneten L\u00f6sung f\u00fcr das Parlament gemacht, die nicht nur ein Engagement f\u00fcr Inklusion zeigt, sondern auch die k\u00fcnftige betriebliche Effizienz steigert. Um mit den Worten von Herrn Kindler zu schlie\u00dfen: <em>Die Zufriedenheit, die sich aus f\u00fcnf Jahren produktiver Nutzung ergibt, unterstreicht die Wirksamkeit des Live-ASR-Systems.<\/em><\/p>\n\n\n\n<p>Wenn Sie mehr \u00fcber das von den Wissenschaftler*innen des Fraunhofer IAIS entwickelte Live-ASR erfahren m\u00f6chten, k\u00f6nnen Sie die Website <a href=\"https:\/\/www.iais.fraunhofer.de\/de\/geschaeftsfelder\/speech-technologies\/live-automatic-speech-recognition.html\" target=\"_blank\" rel=\"noopener\">hier <\/a>besuchen.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Wie kann eine inklusivere Politik gew\u00e4hrleistet werden? Am Beispiel des S\u00e4chsischen Landtags erfahren Sie, wie eine vom Fraunhofer IAIS entwickelte Live-ASR-Software dabei hilft, barrierefreie Plenarsitzungen zu erm\u00f6glichen.<\/p>\n","protected":false},"author":22,"featured_media":12323,"template":"","meta":{"_acf_changed":true,"footnotes":""},"blog-category":[1416,546,1418],"blog-tag":[1448,1451,1527,1528,1559],"class_list":["post-12324","blog","type-blog","status-publish","has-post-thumbnail","hentry","blog-category-alle-blogbeitraege","blog-category-anwendung","blog-category-sprachtechnologien","blog-tag-automatische-spracherkennung-asr","blog-tag-barrierefreiheit","blog-tag-ki-in-der-physik","blog-tag-ki-in-der-politik","blog-tag-nlp-de"],"acf":[],"publishpress_future_workflow_manual_trigger":{"enabledWorkflows":[]},"_links":{"self":[{"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog\/12324","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog"}],"about":[{"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/types\/blog"}],"author":[{"embeddable":true,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/users\/22"}],"version-history":[{"count":0,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog\/12324\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/media\/12323"}],"wp:attachment":[{"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/media?parent=12324"}],"wp:term":[{"taxonomy":"blog-category","embeddable":true,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog-category?post=12324"},{"taxonomy":"blog-tag","embeddable":true,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog-tag?post=12324"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}