{"id":4208,"date":"2022-03-09T04:08:16","date_gmt":"2022-03-09T04:08:16","guid":{"rendered":"https:\/\/lamarr-institute.org\/blog\/computer-vision\/"},"modified":"2025-11-12T14:52:02","modified_gmt":"2025-11-12T14:52:02","slug":"computer-vision","status":"publish","type":"blog","link":"https:\/\/lamarr-institute.org\/de\/blog\/computer-vision\/","title":{"rendered":"Computer vision: Wie lernen Maschinen zu sehen?"},"content":{"rendered":"\n<p>Das Fachgebiet der <a href=\"https:\/\/en.wikipedia.org\/wiki\/Computer_vision\" target=\"_blank\" rel=\"noopener\">Computer Vision<\/a> besch\u00e4ftigt sich mit der Aufgabe aus digitalen Bildern und Videos Informationen zu extrahieren und deren Inhalt zu verstehen. Es wird daher auch oft Bilderkennung genannt. In der Industrie gibt es f\u00fcr den Einsatz von Computer Vision eine Vielzahl von Einsatzm\u00f6glichkeiten, vor allem um zeitaufw\u00e4ndige Arbeitsschritte automatisiert durchzuf\u00fchren. Beispiele sind etwa die Sortierung von Sendungen nach Zieladressen, die \u00dcberpr\u00fcfung produzierter G\u00fcter auf Sch\u00e4den und das autonome Fahren. <\/p>\n\n\n\n<p>Machine-Learning-Verfahren, wie beispielsweise Support Vektor Maschinen (SVMs), sind schon lange im Bereich Computer Vision im Einsatz. Seit einigen Jahren werden insbesondere Deep Learning-basierte Methoden in vielen Bereichen eingesetzt und erzielen herausragende Leistungen, zum Beispiel in folgenden <a href=\"https:\/\/paperswithcode.com\/area\/computer-vision\" target=\"_blank\" rel=\"noopener\">Problemf\u00e4llen<\/a>:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Bildklassifikation:<\/strong> Das Zuordnen eines Bildes zu einer oder mehreren Kategorien, womit Entscheidungen \u00fcber Bilder als Ganzes getroffen werden k\u00f6nnen \u2013 also zum Beispiel, ob ein Werkst\u00fcck besch\u00e4digt ist oder welche Art von Fahrzeug sich auf dem Bild befindet.<\/li>\n\n\n\n<li><strong>Objekt-Detektion:<\/strong> Die Erkennung und Verortung von (mehreren) Objekten und Personen in Bildern zu sogenannten rechteckigen \u201eBounding-Boxen\u201c (Begrenzungsrahmen). Hierdurch ist es m\u00f6glich, Positionen von Objekten im Bild zu Positionen in der echten Welt zuzuordnen sowie Objekte zu z\u00e4hlen.<\/li>\n\n\n\n<li><strong>Bild-Segmentierung:<\/strong> Das Zuordnen von pixelgenauen Bildbereichen zu bestimmten Kategorien. Somit k\u00f6nnen ganze Fl\u00e4chen und Polygone im Bild erkannt werden, etwa wo im Bild eine Stra\u00dfe verl\u00e4uft und wo der B\u00fcrgersteig anf\u00e4ngt.<\/li>\n<\/ul>\n\n\n\n<figure class=\"wp-block-gallery has-nested-images columns-default is-cropped wp-block-gallery-2 is-layout-flex wp-block-gallery-is-layout-flex\">\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" data-id=\"25162\" src=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/Bild-2-1024x682.jpg\" alt=\"- Lamarr Institute for Machine Learning (ML) and Artificial Intelligence (AI)\" class=\"wp-image-25162\" title=\"\"><figcaption class=\"wp-element-caption\">\u00a9 Gabriel Santos &amp; Fraunhofer IML<\/figcaption><\/figure>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" data-id=\"25164\" src=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/Bild-4-1024x683.jpg\" alt=\"- Lamarr Institute for Machine Learning (ML) and Artificial Intelligence (AI)\" class=\"wp-image-25164\" title=\"\"><figcaption class=\"wp-element-caption\">\u00a9 Kendall Henderson &amp; Fraunhofer IML<\/figcaption><\/figure>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" data-id=\"25166\" src=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/Bild-3-1024x683.jpg\" alt=\"- Lamarr Institute for Machine Learning (ML) and Artificial Intelligence (AI)\" class=\"wp-image-25166\" title=\"\"><figcaption class=\"wp-element-caption\">\u00a9 Wouter Dijkstra &amp; Fraunhofer IML<\/figcaption><\/figure>\n<figcaption class=\"blocks-gallery-caption wp-element-caption\">Abbildung 1: Beispiel-Anwendungsf\u00e4lle f\u00fcr die Bilderkennung. Im ersten Bild wird die Fahrzeugklasse durch einen Klassifikator erkannt. Im zweiten Bild werden mit Hilfe von Objekt-Detektion alle Fahrzeuge auf dem Gel\u00e4nde erfasst. Im dritten Bild erm\u00f6glicht die Bild-Segmentierung eine genaue Erkennung der befahrbaren Fl\u00e4chen und Hindernisse als Beispiel f\u00fcr den Anwendungsfall des autonomen Fahrens.<\/figcaption><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\">Wie sehen Menschen die Welt?<\/h2>\n\n\n\n<p>Das menschliche Sehen ist sehr leistungsf\u00e4hig und erkennt verschiedene Objekte, Formen, Bewegungen und Gesichter m\u00fchelos. W\u00e4hrend der Aufbau des menschlichen Auges und die dar\u00fcber stattfindende Aufnahme von Licht weitreichend erforscht sind, geschieht die Interpretation dieser Sinneswahrnehmungen vornehmlich unbewusst. Dabei verarbeitet das Gehirn auch viele nicht-lineare und relative Zusammenh\u00e4nge.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" src=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/Bild-5-1024x703.png\" alt=\"- Lamarr Institute for Machine Learning (ML) and Artificial Intelligence (AI)\" class=\"wp-image-25168\" title=\"\"><figcaption class=\"wp-element-caption\">\u00a9 Edward H. Adelson (CC BY-SA 4.0)<br>Abbildung 2: Ein Beispiel des menschlichen <a href=\"https:\/\/ieeexplore.ieee.org\/abstract\/document\/8577159\" target=\"_blank\" rel=\"noopener\">Bildverarbeitungsverm\u00f6gens anhand einer optischen T\u00e4uschung<\/a>: Obwohl die Felder A und B die exakt gleiche Helligkeit aufweisen, nimmt das menschliche Gehirn Feld B als deutlich heller wahr (relativer Zusammenhang).<\/figcaption><\/figure>\n\n\n\n<p>Die vorangegangene Abbildung 2 zeigt einen solchen relativen Zusammenhang und verdeutlicht die Herausforderung f\u00fcr computerbasierte Bildverarbeitungsprogramme. Denn: Felder A und B haben die gleiche Helligkeit, f\u00fcr einen Rechner also dieselben Pixelwerte. Das menschliche Gehirn nimmt jedoch Feld B als heller wahr, da es st\u00e4rker auf den Vergleich zu den benachbarten Feldern achtet als auf absolute Werte. Solche und weitere Effekte wie die <a href=\"https:\/\/www.interaction-design.org\/literature\/topics\/gestalt-principles\" target=\"_blank\" rel=\"noopener\">Gestaltgesetze<\/a>, welche Regeln in der Wahrnehmung von zusammengeh\u00f6renden Elementen beschreiben und vor allem im UI\/UX-Design wichtig sind, m\u00fcssen zwar nicht explizit bei der Verarbeitung von Bildern in Programmen ber\u00fccksichtigt werden, um gute Ergebnisse zu erzielen. Sie k\u00f6nnen jedoch als Inspiration f\u00fcr die Entwicklung von <a href=\"https:\/\/ieeexplore.ieee.org\/abstract\/document\/8577159\" target=\"_blank\" rel=\"noopener\">neuen Methoden<\/a> und f\u00fcr ein besseres Verst\u00e4ndnis und die Analyse bisheriger Verfahren dienen, wenn man die Leistungsf\u00e4higkeit des menschlichen Sehens nachbilden m\u00f6chte.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Maschinelle Bildverarbeitung<\/h2>\n\n\n\n<p>Zur Verarbeitung von Bildern mit Computerprogrammen werden haupts\u00e4chlich Matrix-\u00e4hnliche Datenstrukturen verwendet. Bei Farbbildern, welche im RGB-Farbraum verarbeitet werden, bestehen die Matrizen zum Beispiel aus den Dimensionen W, H und C. Dabei stehen W und H f\u00fcr die Position der Pixel in der Breite und H\u00f6he des Bildes und C beschreibt die Farbintensit\u00e4t der Pixel f\u00fcr die Farben Rot, Gr\u00fcn und Blau.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"787\" height=\"369\" src=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/Bild1-4.png\" alt=\"- Lamarr Institute for Machine Learning (ML) and Artificial Intelligence (AI)\" class=\"wp-image-15776\" title=\"\" srcset=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/Bild1-4.png 787w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/Bild1-4-300x141.png 300w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/Bild1-4-768x360.png 768w\" sizes=\"auto, (max-width: 787px) 100vw, 787px\" \/><figcaption class=\"wp-element-caption\">\u00a9 ML2R <br>Abbildung 3: Beispiel der Repr\u00e4sentation eines 5*6 Pixel gro\u00dfen RGB-Bildes im Computer mit den RGB-Werten der Pixel an verschiedenen Positionen.<\/figcaption><\/figure>\n\n\n\n<p>Die einzelnen Werte der Pixel werden \u00fcblicherweise mit 8 Bit dargestellt &#8211; nehmen demnach ganzzahlige Werte von 0 bis 255 an &#8211; und werden f\u00fcr bessere Recheneigenschaften oft in andere Wertebereiche umgewandelt. Um nun aus diesen Pixelwerten sinnvolle Informationen zu berechnen, k\u00f6nnen Filter eingesetzt werden. Diese bestehen aus sogenannten Kernels, oder Masken, welche Schritt f\u00fcr Schritt \u00fcber das Bild geschoben werden und meistens per <a href=\"https:\/\/setosa.io\/ev\/image-kernels\/\" target=\"_blank\" rel=\"noopener\">Konvolution<\/a> (Faltung) auf benachbarten Pixeln Berechnungen durchf\u00fchren. Das Ergebnis wiederum ist ein neues Bild, beziehungsweise eine Matrix.<\/p>\n\n\n\n<p>Zur Veranschaulichung betrachten wir einen Filter, welcher Kanten (\u201eedges\u201c) erkennt, also starke Unterschiede in der Intensit\u00e4t zwischen benachbarten Pixeln: der <a href=\"https:\/\/en.wikipedia.org\/wiki\/Prewitt_operator\" target=\"_blank\" rel=\"noopener\">Prewitt <\/a>Filter.<\/p>\n\n\n\n<figure class=\"wp-block-gallery has-nested-images columns-default is-cropped wp-block-gallery-3 is-layout-flex wp-block-gallery-is-layout-flex\">\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" data-id=\"25173\" src=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/Bild-6.jpg\" alt=\"- Lamarr Institute for Machine Learning (ML) and Artificial Intelligence (AI)\" class=\"wp-image-25173\" title=\"\"><figcaption class=\"wp-element-caption\">\u00a9 Fraunhofer IML\n<\/figcaption><\/figure>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" data-id=\"25175\" src=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/Bild-7.jpg\" alt=\"- Lamarr Institute for Machine Learning (ML) and Artificial Intelligence (AI)\" class=\"wp-image-25175\" title=\"\"><figcaption class=\"wp-element-caption\">\u00a9 Fraunhofer IML\n<\/figcaption><\/figure>\n<figcaption class=\"blocks-gallery-caption wp-element-caption\">Abbildung 4: Berechnung der Kanten eines Bildes: Links das Eingabebild, rechts das Ergebnis der Konvolution mit einem Prewitt Filter. Im rechten Bild haben die Pixel genau an den Stellen einen hohen Wert, an denen im linken Bild Kanten erkannt wurden, w\u00e4hrend Fl\u00e4chen mit gleicher oder \u00e4hnlicher Intensit\u00e4t einen niedrigen Wert haben.<\/figcaption><\/figure>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/Gif1.gif\" alt=\"- Lamarr Institute for Machine Learning (ML) and Artificial Intelligence (AI)\" class=\"wp-image-25177\" title=\"\"><figcaption class=\"wp-element-caption\">\u00a9 Fraunhofer IML <br>Abbildung 5: Zur Veranschaulichung die Konvolution eines kleinen Bildausschnittes mit einem Prewitt-Filter. Die einzelnen Elemente werden dabei entsprechend ihrer Positionen multipliziert und schlie\u00dflich aufsummiert. Damit das Resultat die gleichen Ma\u00dfe beh\u00e4lt, wie das Ursprungsbild wurden hier zus\u00e4tzliche Nullen eingef\u00fcgt. Dies wird auch \u201eZero-Padding\u201c genannt. Das Ergebnis wird anschlie\u00dfend quadriert, um den Filter richtungsunabh\u00e4ngig zu machen.<\/figcaption><\/figure>\n\n\n\n<p>Ausgehend von diesen \u201eKantenbildern\u201c k\u00f6nnen nun, zum Beispiel \u00fcber geometrische Berechnungen, verschiedene Formen detektiert werden. Neben einfachen Filtern existieren auch komplexere Methoden, um beispielsweise sogenannte Bild- beziehungsweise Merkmalsdeskriptoren zu berechnen, welche lokale (also auf kleinen Bildausschnitten) Merkmale beschreiben. Beispiele f\u00fcr solche Methoden sind <a href=\"http:\/\/www.scholarpedia.org\/article\/SIFT\" target=\"_blank\" rel=\"noopener\">SIFT<\/a> und <a href=\"https:\/\/learnopencv.com\/histogram-of-oriented-gradients\/\" target=\"_blank\" rel=\"noopener\">HOG<\/a>.<\/p>\n\n\n\n<p>Zu wissen, welche Filter, Bilddeskriptoren und darauf aufbauend weitere Methoden f\u00fcr bestimmte Anwendungsf\u00e4lle ben\u00f6tigt werden, ist hochrelevant. Hier zeigt Deep Learning seine St\u00e4rke, da geeignete Filter und Merkmale \u00fcber Datens\u00e4tze eigenst\u00e4ndig von DL-Modellen gelernt werden k\u00f6nnen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Bilderkennung durch Convolutional Neural Networks<\/h2>\n\n\n\n<p>Ein gro\u00dfer Vorteil von Deep-Learning-Verfahren ist in diesem Zusammenhang das \u201eEnd-to-End\u201c Learning. Hierbei wird eine sonst mehrstufige, manuell ausgew\u00e4hlte Pipeline aus Datenvorverarbeitung, (eventuell mehrfacher) Merkmalsextraktion und Vorhersagemethode durch ein einzelnes Modell ersetzt. Ein solches Deep-Learning-Modell ist f\u00e4hig, aus einem (hinreichend gro\u00dfen) Datensatz, die n\u00f6tigen Vorverarbeitungsschritte und Merkmale eigenst\u00e4ndig zu lernen, die es f\u00fcr eine Vorhersage ben\u00f6tigt.<\/p>\n\n\n\n<p>F\u00fcr die Bilderkennung kommen dazu Convolutional Neural Networks (CNNs) zum Einsatz. Diese verf\u00fcgen \u00fcber spezielle Faltungsschichten, die \u00e4hnlich zu den oben genannten Filtern funktionieren. Die einzelnen Parameter der Filtermasken werden im Trainingsprozess von dem Modell gelernt und sind daher nicht fest vorgegeben. Dadurch kann das Modell genau die Merkmale lernen, die es zur Optimierung der Zielmetrik, zum Beispiel die Genauigkeit der Klassifikation, ben\u00f6tigt. Das hei\u00dft, dass auf Basis anfangs simpler Merkmale, wie Kanten und Farben, Schritt f\u00fcr Schritt immer komplexere Merkmale, wie Gesichter oder Reifen, erkannt werden.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"933\" height=\"250\" src=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/Bild-8-1.png\" alt=\"- Lamarr Institute for Machine Learning (ML) and Artificial Intelligence (AI)\" class=\"wp-image-15779\" title=\"\" srcset=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/Bild-8-1.png 933w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/Bild-8-1-300x80.png 300w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/Bild-8-1-768x206.png 768w\" sizes=\"auto, (max-width: 933px) 100vw, 933px\" \/><figcaption class=\"wp-element-caption\">\u00a9 Olah, et al. (2017, CC-BY 4.0) <br>Abbildung 6: Beispiel gelernter Merkmale in einem beliebten CNN-Modell. Bei dieser Visualisierung der Merkmale entstehen Bilder, die in etwa das darstellen, was der Filter erkennt. In den ersten Schichten werden noch sehr allgemeine Merkmale, wie Kanten und Texturen, erkannt. Die sp\u00e4teren Schichten erkennen immer komplexere Objekte, wie Bl\u00fcten und Bl\u00e4tter oder die K\u00f6pfe bestimmter Hunderassen inklusive der korrekten Zusammensetzung aus Ohren, Schnauze und Augen.<\/figcaption><\/figure>\n\n\n\n<p>CNNs haben zus\u00e4tzlich den Vorteil, dass inzwischen sehr gro\u00dfe Modelle mit \u00fcber 100 solcher Faltungsschichten existieren und diese durch ihre Komplexit\u00e4t in der Lage sind, aus immer gr\u00f6\u00dferen Datens\u00e4tzen mehr Vorhersageleistung gewinnen zu k\u00f6nnen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Fazit<\/h2>\n\n\n\n<p>Deep Learning und CNNs erm\u00f6glichen es Entwicklern von Bilderkennungssystemen sich auf die Sammlung diverser Datens\u00e4tze, die Auswahl geeigneter neuronaler Netzwerk-Architekturen sowie die Optimierung von Modellparametern zu konzentrieren. Deep-Learning-Modelle k\u00f6nnen als Ganzes entwickelt, trainiert und getestet werden. Sie haben so einen Vorteil gegen\u00fcber traditionellen Verfahren, bei denen f\u00fcr jeden Anwendungsfall erneut eine Pipeline aus geeigneter Merkmalsextraktion und Vorhersagemethoden entwickelt und Schritt-f\u00fcr-Schritt getestet werden muss. Insbesondere erzielen Deep-Learning-Modelle in vielen Anwendungsf\u00e4llen eine bessere Vorhersageleistung als traditionellere Methoden.<\/p>\n\n\n\n<p>Der Einsatz von Deep Learning stellt uns jedoch auch vor Herausforderungen: <a href=\"https:\/\/machinelearning-blog.de\/grundlagen\/erklaerbarkeit-kuenstliche-intelligenz\/\" target=\"_blank\" rel=\"noopener\">Modellentscheidungen sind nur schwierig zu analysieren<\/a> und Fehler daher mitunter nur schwer zu erkennen. Au\u00dferdem ist nicht klar, ob Deep-Learning-Verfahren spezielle Problemf\u00e4lle, die \u00fcber gesammelte Daten hinaus gehen, l\u00f6sen k\u00f6nnen.<\/p>\n\n\n\n<p>Wir m\u00fcssen uns diese Einschr\u00e4nkungen beim Einsatz von Deep Learning f\u00fcr Aufgaben der Computer Vision vor Augen f\u00fchren. Insgesamt sind Deep Learning basierte Verfahren jedoch eine sehr gute erste Wahl, um diverse Anwendungsf\u00e4lle im Bereich der Bilderkennung zu l\u00f6sen.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Other sources:<\/h3>\n\n\n\n<p><a href=\"http:\/\/cs231n.stanford.edu\/\" target=\"_blank\" rel=\"noreferrer noopener\">CS231n<\/a>: Convolutional Neural Networks for Visual Recognition<\/p>\n\n\n\n<p><strong>Feature Visualization<\/strong>. Olah, et al., Distill, 2017, <a href=\"https:\/\/distill.pub\/2017\/feature-visualization\/\" target=\"_blank\" rel=\"noreferrer noopener\">Link<\/a><\/p>\n\n\n\n<p><strong>Computer Vision: Algorithms and Applications <\/strong>(2. Aufl.).<br>Richard Szeliski, Springer Science &amp; Business Media, 2022, <a href=\"https:\/\/szeliski.org\/Book\/\" target=\"_blank\" rel=\"noreferrer noopener\">Link<\/a><\/p>\n\n\n\n<p><strong>Digital Image Processing<\/strong>. Rafael Gonzalez, Richard Woods, Steven Eddins, Gatesmark Publishing, 2020, <a href=\"https:\/\/www.imageprocessingplace.com\/\" target=\"_blank\" rel=\"noreferrer noopener\">Link<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Maschinelles Lernen erm\u00f6glicht das Entwickeln leistungsf\u00e4higer Bilderkennungssysteme (Computer Vision), mit denen Informationen aus Bildern und Videos automatisiert erkannt und extrahiert werden k\u00f6nnen. Insbesondere Deep-Learning-Verfahren haben hierbei einen Vorteil gegen\u00fcber traditionellen Methoden.<\/p>\n","protected":false},"author":9,"featured_media":4227,"template":"","meta":{"_acf_changed":false,"footnotes":""},"blog-category":[1416,390],"blog-tag":[1457,1458],"class_list":["post-4208","blog","type-blog","status-publish","has-post-thumbnail","hentry","blog-category-alle-blogbeitraege","blog-category-grundlagen","blog-tag-computer-vision-de","blog-tag-convolutionale-neuronale-netze"],"acf":[],"publishpress_future_workflow_manual_trigger":{"enabledWorkflows":[]},"_links":{"self":[{"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog\/4208","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog"}],"about":[{"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/types\/blog"}],"author":[{"embeddable":true,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/users\/9"}],"version-history":[{"count":0,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog\/4208\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/media\/4227"}],"wp:attachment":[{"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/media?parent=4208"}],"wp:term":[{"taxonomy":"blog-category","embeddable":true,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog-category?post=4208"},{"taxonomy":"blog-tag","embeddable":true,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog-tag?post=4208"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}