{"id":15857,"date":"2024-10-23T09:29:15","date_gmt":"2024-10-23T09:29:15","guid":{"rendered":"https:\/\/lamarr-institute.org\/?post_type=blog&#038;p=15857"},"modified":"2025-11-12T14:51:10","modified_gmt":"2025-11-12T14:51:10","slug":"gedanken-nobelpreis-physik-2024","status":"publish","type":"blog","link":"https:\/\/lamarr-institute.org\/de\/blog\/gedanken-nobelpreis-physik-2024\/","title":{"rendered":"Gedanken \u00fcber den Nobelpreis f\u00fcr Physik 2024 &#8230;"},"content":{"rendered":"\n<p>In diesem Blogbeitrag teile ich einige meiner Gedanken \u00fcber den diesj\u00e4hrigen Nobelpreis f\u00fcr Physik, der mich ebenso \u00fcberrascht hat wie alle anderen. Ich gehe der Frage nach, wof\u00fcr die Preistr\u00e4ger geehrt werden, und vertrete die Auffassung, dass es mehr als gerechtfertigt ist, einen Nobelpreis f\u00fcr die Forschung im Bereich der k\u00fcnstlichen Intelligenz zu vergeben, deren praktische Anwendungen derzeit viele Aspekte unseres t\u00e4glichen Lebens revolutionieren.<\/p>\n\n\n\n<p>Wenn Sie diesen Blog lesen, wissen Sie wahrscheinlich bereits, dass der Nobelpreis f\u00fcr Physik 2024 an <a href=\"https:\/\/en.wikipedia.org\/wiki\/John_Hopfield\" target=\"_blank\" rel=\"noreferrer noopener\">John Hopfield<\/a> und <a href=\"https:\/\/en.wikipedia.org\/wiki\/Geoffrey_Hinton\" target=\"_blank\" rel=\"noreferrer noopener\">Geoffrey Hinton<\/a> verliehen wurde. Um zu verdeutlichen, warum, m\u00f6chte ich aus der <a href=\"https:\/\/www.nobelprize.org\/prizes\/physics\/2024\/press-release\/\" target=\"_blank\" rel=\"noreferrer noopener\">Pressemitteilung des Nobelkomitees f\u00fcr Physik<\/a> zitieren: \u201eWenn wir \u00fcber k\u00fcnstliche Intelligenz sprechen, meinen wir oft maschinelles Lernen mit k\u00fcnstlichen neuronalen Netzen. Diese Technologie wurde urspr\u00fcnglich von der Struktur des Gehirns inspiriert. In einem k\u00fcnstlichen neuronalen Netz werden die Neuronen des Gehirns durch Knoten dargestellt, die unterschiedliche Werte haben. Diese Knoten beeinflussen sich gegenseitig durch Verbindungen, die mit Synapsen verglichen werden k\u00f6nnen [&#8230;]. Die diesj\u00e4hrigen Preistr\u00e4ger haben seit den 1980er Jahren wichtige Arbeiten mit k\u00fcnstlichen neuronalen Netzen durchgef\u00fchrt.\u201c<\/p>\n\n\n\n<p>Wenn man sich die Entscheidung des Komitees ansieht, kann man mit einigem Recht sagen, dass niemand sie erwartet hatte. (Ich muss es wissen, denn in der Woche vor der Bekanntgabe habe ich mir mehrere Videos von Physik-YouTubern mit Vorhersagen f\u00fcr den diesj\u00e4hrigen Preis angesehen, und niemand hatte Forscher f\u00fcr k\u00fcnstliche Intelligenz (KI) auf seiner Liste).<\/p>\n\n\n\n<p>Man kann auch sagen, dass die Entscheidung etwas umstritten ist. Auf der einen Seite gibt es Physiker, die kritisieren, dass der Preis an Informatiker geht und dies als Indikator f\u00fcr eine Krise der Physik sehen. Auf der anderen Seite gibt es Informatiker, die den Preis als einen Versuch der Physiker sehen, KI als ihre Disziplin zu beanspruchen. (Einfach mal googeln \ud83d\ude09.) Es gibt auch eine Kontroverse \u00fcber die Preisw\u00fcrdigkeit der Preistr\u00e4ger und dar\u00fcber, ob die Beitr\u00e4ge, f\u00fcr die sie ausgezeichnet werden, ihnen zu Unrecht zugeschrieben werden. (Einfach mal googeln \ud83d\ude09.)<\/p>\n\n\n\n<p>Im Folgenden werde ich auf all dies eingehen und er\u00f6rtern, warum Hopfield und Hinton tats\u00e4chlich grundlegende Arbeiten zur KI geleistet haben, die eine Br\u00fccke zwischen Informatik und Physik schlagen. Dabei gehe ich davon aus, dass die Leser wissen, was k\u00fcnstliche neuronale Netze sind, n\u00e4mlich mathematische Modelle biologischer neuronaler Netze, die auf Computern implementiert werden k\u00f6nnen, um eine Vielzahl von kognitiven Aufgaben zu erf\u00fcllen. Also, los geht&#8217;s &#8230;<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Erfindung der k\u00fcnstlichen neuronalen Netze<\/strong><\/h2>\n\n\n\n<p>Im Gegensatz zu dem, was wir heute in den Nachrichten lesen, haben Hopfield und Hinton die k\u00fcnstlichen neuronalen Netze nicht erfunden und auch nie behauptet, dies getan zu haben. Tats\u00e4chlich gehen k\u00fcnstliche neuronale Netze mindestens bis in die 1940er Jahre zur\u00fcck, als die ersten elektronischen Computer verf\u00fcgbar wurden und man begann, dar\u00fcber nachzudenken, wie man menschliche Denkprozesse mit \u201eelektronischen Gehirnen\u201c simulieren k\u00f6nnte.<\/p>\n\n\n\n<p>Das erste Konzept eines elektronischen Neurons wurde 1943 von McCulloch und Pitts beschrieben, die auch er\u00f6rterten, wie man logische Berechnungen mit Netzen solcher Neuronen durchf\u00fchren kann [1]. In den 1950er Jahren baute Rosenblatt ein elektronisches Neuron, das er Perzeptron nannte, und zeigte, dass es mit Hilfe von Trainingsdaten und einem auf Hebb zur\u00fcckgehenden Algorithmus lernen kann, Muster zu erkennen [2,3]. Netze, in denen Perzeptronen in Schichten gestapelt sind und nur Informationen von einer Schicht zur n\u00e4chsten weitergeben, wurden als mehrschichtige Feed-Forward-Perzeptronen bekannt und waren die Vorl\u00e4ufer vieler der heutigen tiefen neuronalen Netze. Neuronale Netze, bei denen die Perzeptronen nicht unbedingt in Schichten angeordnet sind und bei denen Informationen hin und her flie\u00dfen k\u00f6nnen, wurden als rekurrente neuronale Netze bezeichnet und spielen ebenfalls eine grundlegende Rolle beim modernen Deep Learning.<\/p>\n\n\n<style>.kb-image15857_fe22dd-cd .kb-image-has-overlay:after{opacity:0.3;}<\/style>\n<figure class=\"wp-block-kadence-image kb-image15857_fe22dd-cd size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"363\" src=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/\/00001-NOBEL-neural-network-types_\u00a9_Johan_Jarnestad_the_royal-_swedisch_academy_of_science-1024x363.png\" alt=\"Image of different neural network types\" class=\"kb-img wp-image-15856\" title=\"\" srcset=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/00001-NOBEL-neural-network-types_\u00a9_Johan_Jarnestad_the_royal-_swedisch_academy_of_science-1024x363.png 1024w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/00001-NOBEL-neural-network-types_\u00a9_Johan_Jarnestad_the_royal-_swedisch_academy_of_science-300x106.png 300w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/00001-NOBEL-neural-network-types_\u00a9_Johan_Jarnestad_the_royal-_swedisch_academy_of_science-768x272.png 768w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/00001-NOBEL-neural-network-types_\u00a9_Johan_Jarnestad_the_royal-_swedisch_academy_of_science.png 1200w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><figcaption>\u00a9 Johan Jarnestadt \/ The Royal Swedish Academy of Science<\/figcaption><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Br\u00fcckenschlag zwischen Informatik und Physik:<\/strong> <strong>Die Beitr\u00e4ge von Hopfield und Hinton zur KI-Forschung<\/strong><\/h2>\n\n\n\n<p>Vor diesem historischen Hintergrund kann ich nun auf die Beitr\u00e4ge von Hopfield und Hinton und ihre zentrale Rolle f\u00fcr einen Gro\u00dfteil der laufenden Forschungsarbeiten zur k\u00fcnstlichen Intelligenz eingehen.<\/p>\n\n\n\n<p>In den 1970er Jahren konzipierten Little und Amari unabh\u00e4ngig voneinander eine Art von rekurrenten neuronalen Netzen, die heute als <a href=\"https:\/\/en.wikipedia.org\/wiki\/Hopfield_network\" target=\"_blank\" rel=\"noreferrer noopener\">Hopfield-Netze<\/a> bekannt sind [4,5]. Auf den ersten Blick scheint diese Zuordnung \u00fcberraschend, da John Hopfield zugab, dass er die Ideen anderer aufgegriffen hat, als er sie einige Jahre sp\u00e4ter erweiterte [6]. Als Physiker (und nicht als Informatiker, wie man heute oft liest) hatte Hopfield jedoch die grundlegende Einsicht, dass die Aktivit\u00e4t der Neuronen in Hopfield-Netzen als ein Energieminimierungsprozess verstanden werden kann. Mit anderen Worten, er verband mathematische Biologie, mathematische Psychologie und KI mit der Physik, was weitreichende Konsequenzen hat.<\/p>\n\n\n\n<p>Hopfield-Netze waren zun\u00e4chst als mathematisches Modell daf\u00fcr konzipiert, wie das Gehirn Muster speichert und abruft. Das hei\u00dft, sie waren urspr\u00fcnglich dazu gedacht, Erinnerungen zu beschreiben. Nachdem Hopfield seine Arbeit ver\u00f6ffentlicht hatte, sorgte die Verbindung zwischen Ged\u00e4chtnisbildung und physikalischen Ph\u00e4nomenen f\u00fcr einige Aufregung, die sp\u00e4ter wieder abflaute, als sich herausstellte, dass die urspr\u00fcnglichen Hopfield-Netze nicht sehr gut im Speichern von Erinnerungen sind [7]. Hopfield selbst wies jedoch auf eine weitere, merkw\u00fcrdigerweise untersch\u00e4tzte Anwendung von Hopfield-Netzen hin, n\u00e4mlich ihre Verwendung als Maschinen zur L\u00f6sung von Randbedingungen und kombinatorischen Problemen [8].<\/p>\n\n\n\n<p>Ich werde nicht auf die Einzelheiten dieses letzten Aspekts der Hopfield-Netze eingehen, da sie recht technisch sind. Ich m\u00f6chte jedoch darauf hinweisen, dass dieser Aspekt der Hopfield-Netze von erheblichem aktuellem Interesse ist, da er aufgrund der Erkenntnisse, die wir Hopfield verdanken, den Br\u00fcckenschlag zwischen KI und Quanten-Computing erm\u00f6glicht.<\/p>\n\n\n\n<p>Am Lamarr-Institut arbeiten wir selbst aktiv auf diesem spannenden Gebiet [9,10]. Um unsere laufende Forschung im Bereich der Quanten-KI zu veranschaulichen, m\u00f6chte ich auf die aktuelle Arbeit von Sascha M\u00fccke hinweisen, der von Hopfield inspirierte Modelle zur L\u00f6sung von Sudokus auf Quanten-Annealern verwendet [11]. Man beachte, dass \u201einspiriert\u201c genau der richtige Begriff ist, denn (mittlerweile wenig \u00fcberraschend) hat Hopfield selbst bereits gezeigt, wie neuronale Netze diese Art von R\u00e4tseln l\u00f6sen k\u00f6nnen [12].<\/p>\n\n\n\n<p>Geoffrey Hinton wird oft als \u201eder Pate der KI\u201c bezeichnet, und ich gehe davon aus, dass die meisten Leser dieses Blogs schon von ihm und seiner Arbeit geh\u00f6rt haben. Da er jedoch ein Informatiker ist, k\u00f6nnte man sich fragen, warum er den Nobelpreis f\u00fcr Physik erhalten sollte.<\/p>\n\n\n\n<p>Am bekanntesten ist er wohl als einer der Entdecker und Verbreiter des Error-Backpropagation-Algorithmus [13], der das Training von mehrschichtigen Perzeptronen erm\u00f6glicht (und dessen Wurzeln und Vorl\u00e4ufer noch weiter zur\u00fcckreichen [14]), doch das Nobelkomitee verweist auf seine fr\u00fcheren Beitr\u00e4ge zur Theorie und zu Anwendungen von <a href=\"https:\/\/en.wikipedia.org\/wiki\/Boltzmann_machine\" target=\"_blank\" rel=\"noreferrer noopener\">Boltzmann-Maschinen<\/a> [15,16]. Diese erweitern und verallgemeinern Hopfield-Netze unter Verwendung von Konzepten aus der statistischen Physik und spielten eine entscheidende Rolle bei der Entwicklung dessen, was wir heute Deep Learning nennen. In den sp\u00e4ten 2000er Jahren arbeiteten Hinton und seine Kollegen mit so genannten tiefen Boltzmann-Maschinen, um einfache Bildklassifizierungsaufgaben zu l\u00f6sen [17]. Ihre Ideen f\u00fchrten dann schnell zu Deep Convolutional Neural Networks f\u00fcr weitaus fortgeschrittenere Bildklassifizierungsaufgaben und zu der Ver\u00f6ffentlichung, die wohl den Ansto\u00df f\u00fcr die Deep-Learning-Revolution gab, da sie alle verbleibenden Bedenken hinsichtlich der F\u00e4higkeiten k\u00fcnstlicher neuronaler Netze ausr\u00e4umte [18].<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Aktuelle und zuk\u00fcnftige Bedeutung der Forschung der Nobelpreistr\u00e4ger<\/strong><\/h2>\n\n\n\n<p>Bei der Erl\u00e4uterung des <a href=\"https:\/\/www.nobelprize.org\/uploads\/2024\/09\/advanced-physicsprize2024.pdf\" target=\"_blank\" rel=\"noreferrer noopener\">wissenschaftlichen Hintergrunds<\/a> des diesj\u00e4hrigen Nobelpreises verwies das Nobelkomitee auf eine breite Palette von Anwendungsbereichen f\u00fcr k\u00fcnstliche neuronale Netze in der Physik und anderen wissenschaftlichen Disziplinen. In diesem Zusammenhang wurde das <a href=\"https:\/\/lamarr-institute.org\/de\/news\/bahnbrechender-durchbruch-in-der-astrophysik-maschinelles-lernen-revolutioniert-die-neutrino-detektion\/\" target=\"_blank\" rel=\"noreferrer noopener\">IceCube-Neutrino-Detektorprojekt<\/a> am S\u00fcdpol erw\u00e4hnt [19]. Das Projekt f\u00fchrte zum ersten Neutrinobild der Milchstra\u00dfe, ein Durchbruch, der von dem an der TU Dortmund ausgebildeten Wissenschaftler Mirco H\u00fcnnefeld in Zusammenarbeit mit den Forschungsgruppen der Gr\u00fcndungsdirektorin des Lamarr-Instituts, <a href=\"https:\/\/lamarr-institute.org\/de\/person\/katharina-morik\/\">Katharina Morik<\/a>, und des Lamarr-Area Chairs <a href=\"https:\/\/lamarr-institute.org\/de\/forschung\/physik\/\">Physik<\/a>, <a href=\"https:\/\/lamarr-institute.org\/de\/person\/prof-dr-dr-wolfgang-rhode\/\">Wolfgang Rhode<\/a>, erzielt wurde.<\/p>\n\n\n\n<p>Alles in allem denke ich daher, dass der Nobelpreis f\u00fcr Physik f\u00fcr Hopfield und Hinton wohlverdient ist. Beide haben Methoden aus dem Werkzeugkasten der Physik angewandt, um das Verhalten der Art von Modellen zu verstehen und zu verbessern, die jetzt die KI-Revolution vorantreiben. Dar\u00fcber hinaus pr\u00e4gen ihre Arbeiten aus den 1980er Jahren noch immer die heutige Forschungslandschaft und werden daher wahrscheinlich noch weitere Durchbr\u00fcche erm\u00f6glichen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Referenzen<\/h2>\n\n\n\n<p>[1] W.S. McCulloch and W. Pitts. <a href=\"https:\/\/link.springer.com\/article\/10.1007\/BF02478259\" target=\"_blank\" rel=\"noreferrer noopener\">A Logical Calculus of the Ideas Immanent in Nervous Activity<\/a>. Bulletin of Mathematical Biophysics, 5(4). 1943.<\/p>\n\n\n\n<p>[2] F. Rosenblatt. <a href=\"https:\/\/psycnet.apa.org\/doiLanding?doi=10.1037%2Fh0042519\" target=\"_blank\" rel=\"noreferrer noopener\">The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain<\/a>. Psychological Review, 65(6). 1943.<\/p>\n\n\n\n<p>[3] D.O. Hebb. <a href=\"https:\/\/psycnet.apa.org\/record\/1950-02200-000\" target=\"_blank\" rel=\"noreferrer noopener\">The Organization of Behavior<\/a>. Wiley. 1949.<\/p>\n\n\n\n<p>[4] W.A. Little. <a href=\"https:\/\/www.sciencedirect.com\/science\/article\/pii\/0025556474900315\" target=\"_blank\" rel=\"noopener\">The Existence of Persistent States in the Brain<\/a>. Mathematical Bioscience, 19(1\u20132). 1974.<\/p>\n\n\n\n<p>[5] S.-I. Amari. <a href=\"https:\/\/link.springer.com\/article\/10.1007\/BF00365229\" target=\"_blank\" rel=\"noreferrer noopener\">Neural Theory of Association and Concept-formation<\/a>. Biological Cybernetics, 26(3). 1977.<\/p>\n\n\n\n<p>[6] J.J. Hopfield. <a href=\"https:\/\/www.pnas.org\/doi\/10.1073\/pnas.79.8.2554\" target=\"_blank\" rel=\"noreferrer noopener\">Neural Networks and Physical Systems with Collective Computational Abilities<\/a>. PNAS, 79(8). 1982.<\/p>\n\n\n\n<p>[7] D.J. Amit, H. Gutfreund, and H. Sompolinsky. <a href=\"https:\/\/journals.aps.org\/pra\/abstract\/10.1103\/PhysRevA.35.2293\" target=\"_blank\" rel=\"noreferrer noopener\">Information Storage in Neural Networks with Low Levels of Activity<\/a>. Physical Review A, 35. 1987.<\/p>\n\n\n\n<p>[8] J.J. Hopfield and D.W. Tank. <a href=\"https:\/\/link.springer.com\/article\/10.1007\/BF00339943\" target=\"_blank\" rel=\"noreferrer noopener\">\u201cNeural\u201d Computation of Decisions in Optimization Problems<\/a>. Biological Cybernetics, 52. 1985.<\/p>\n\n\n\n<p>[9] C. Bauckhage, R. Sanchez, and R. Sifa. <a href=\"https:\/\/ieeexplore.ieee.org\/document\/9206916\" target=\"_blank\" rel=\"noreferrer noopener\">Problem Solving with Hopfield Networks and Adiabatic Quantum Computing<\/a>. In Proceedings of International Joint Conference on Neural Networks. 2020.<\/p>\n\n\n\n<p>[10] C. Bauckhage, R. Ramamurthy, and R. Sifa. <a href=\"https:\/\/link.springer.com\/chapter\/10.1007\/978-3-030-61616-8_16\" target=\"_blank\" rel=\"noreferrer noopener\">Hopfield Networks for Vector Quantization<\/a>. In Proceedings of International Conference on Artificial Neural Networks. 2020.<\/p>\n\n\n\n<p>[11] S. M\u00fccke. <a href=\"https:\/\/dl.acm.org\/doi\/10.1145\/3638530.3664106\" target=\"_blank\" rel=\"noreferrer noopener\">A Simple QUBO Formulation of Sudoku<\/a>. In Proceedings of the Genetic and Evolutionary Computing Conference Companion. 2024.<\/p>\n\n\n\n<p>[12] J.J. Hopfield. <a href=\"https:\/\/direct.mit.edu\/neco\/article\/20\/5\/1119\/7323\/Searching-for-Memories-Sudoku-Implicit-Check-Bits\" target=\"_blank\" rel=\"noreferrer noopener\">Searching for Memories, Sudoku, Implicit Check Bits, and the Iterative Use of Not-Always-Correct Rapid Neural Computation<\/a>. Neural Computation, 20(5). 2008.<\/p>\n\n\n\n<p>[13] D.E. Rummelhart, G.E. Hinton, and R.J. Williams. <a href=\"https:\/\/www.nature.com\/articles\/323533a0\" target=\"_blank\" rel=\"noreferrer noopener\">Learning Representations by Back-propagating Errors<\/a>. Nature, 323(6088). 1986.<\/p>\n\n\n\n<p>[14] J. Schmidhuber. <a href=\"https:\/\/www.sciencedirect.com\/science\/article\/pii\/S0893608014002135\" target=\"_blank\" rel=\"noreferrer noopener\">Deep Learning in Neural Networks: An Overview<\/a>. Neural Networks, 61. 2015.<\/p>\n\n\n\n<p>[15] G.E. Hinton, T.J. Sejnowski, and D.H. Ackley. Boltzmann Machines: Constraint Satisfaction Networks that Learn. Technical Report CMU-CS-84-119. 1984.<\/p>\n\n\n\n<p>[16] D.H. Ackley, G.E. Hinton, and T.J. Sejnowski. <a href=\"https:\/\/www.sciencedirect.com\/science\/article\/pii\/S0364021385800124\" target=\"_blank\" rel=\"noreferrer noopener\">A Learning Algorithm for Boltzmann Machines<\/a>. Cognitive Science, 9(1). 1985.<\/p>\n\n\n\n<p>[17] R. Salakhutdinov and G.E. Hinton. <a href=\"https:\/\/proceedings.mlr.press\/v5\/salakhutdinov09a.html\" target=\"_blank\" rel=\"noreferrer noopener\">Deep Boltzmann Machines<\/a>. In Proceedings of International Conference on Artificial Intelligence and Statistics. 2009.<\/p>\n\n\n\n<p>[18] A. Krizhevsky, I. Sutskever, and G. Hinton. 2012. <a href=\"https:\/\/papers.nips.cc\/paper_files\/paper\/2012\/hash\/c399862d3b9d6b76c8436e924a68c45b-Abstract.html\" target=\"_blank\" rel=\"noreferrer noopener\">ImageNet Classification with Deep Convolutional Neural Networks<\/a>. In Proceedings of Advances in Neural Information Processing Systems. 2012.<\/p>\n\n\n\n<p>[19] <a href=\"https:\/\/www.science.org\/doi\/10.1126\/science.adc9818\" target=\"_blank\" rel=\"noreferrer noopener\">IceCube Collaboration, <em>Science <\/em><strong>380<\/strong>, 1338 (2023)<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Der Nobelpreis f\u00fcr Physik 2024 geht an John Hopfield und Geoffrey Hinton f\u00fcr ihre Forschungen zur k\u00fcnstlichen Intelligenz. Finden Sie heraus, was hinter dieser Entscheidung steckt.<\/p>\n","protected":false},"author":16,"featured_media":15858,"template":"","meta":{"_acf_changed":false,"footnotes":""},"blog-category":[1416,390],"blog-tag":[1450,1480,1527,1558,1584],"class_list":["post-15857","blog","type-blog","status-publish","has-post-thumbnail","hentry","blog-category-alle-blogbeitraege","blog-category-grundlagen","blog-tag-astrophysik","blog-tag-deep-learning-de","blog-tag-ki-in-der-physik","blog-tag-neuronale-netze","blog-tag-quantencomputer"],"acf":[],"publishpress_future_workflow_manual_trigger":{"enabledWorkflows":[]},"_links":{"self":[{"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog\/15857","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog"}],"about":[{"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/types\/blog"}],"author":[{"embeddable":true,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/users\/16"}],"version-history":[{"count":0,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog\/15857\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/media\/15858"}],"wp:attachment":[{"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/media?parent=15857"}],"wp:term":[{"taxonomy":"blog-category","embeddable":true,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog-category?post=15857"},{"taxonomy":"blog-tag","embeddable":true,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog-tag?post=15857"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}