{"id":36086,"date":"2026-04-15T10:46:17","date_gmt":"2026-04-15T10:46:17","guid":{"rendered":"https:\/\/lamarr-institute.org\/?post_type=blog&#038;p=36086"},"modified":"2026-04-15T12:34:22","modified_gmt":"2026-04-15T12:34:22","slug":"federated-learning-gesundheitswesen-hard-labels","status":"publish","type":"blog","link":"https:\/\/lamarr-institute.org\/de\/blog\/federated-learning-gesundheitswesen-hard-labels\/","title":{"rendered":"Weniger ist mehr: Hard Labels f\u00fcr ein st\u00e4rkeres Federated Learning im Gesundheitswesen"},"content":{"rendered":"\n<p>Die moderne klinische KI steht vor einem grundlegenden Spannungsfeld: Modelle erfordern gro\u00dfe, vielf\u00e4ltige Datens\u00e4tze, doch Patientendaten k\u00f6nnen nicht einfach institutions\u00fcbergreifend gepoolt werden. Multi-institutionelles Lernen ist in der medizinischen Bildgebung, Onkologie, Radiologie und EHR-basierten Risikovorhersage unerl\u00e4sslich, wo Datens\u00e4tze einzelner Standorte oft nicht ausreichend vielf\u00e4ltig oder statistisch aussagekr\u00e4ftig sind. Doch regulatorische Rahmenwerke wie die EU-Datenschutz-Grundverordnung (DSGVO) stufen Gesundheitsinformationen als besondere Kategorie personenbezogener Daten ein und schreiben strenge Anforderungen an Datenminimierung und Vertraulichkeit vor.<\/p>\n\n\n\n<p>Infolgedessen ist ein zentralisiertes Modelltraining in realen Krankenhausnetzwerken h\u00e4ufig nicht durchf\u00fchrbar. Das Federated Learning im Gesundheitswesen zielt darauf ab, diesen Konflikt zu l\u00f6sen: Modelle werden lokal in jeder Einrichtung trainiert, und es werden nur Modellaktualisierungen ausgetauscht, nicht jedoch sensible Patientendaten. Neuere Forschungsergebnisse zeigen jedoch, dass Datenschutzrisiken nicht einfach verschwinden, nur weil die Rohdaten lokal bleiben. Dies wirft eine naheliegende Frage auf: Wenn die Weitergabe von Rohdaten zu aufschlussreich ist und die Weitergabe von Modellparametern immer noch zu Informationslecks f\u00fchren kann, wie wenig Informationen sind dann tats\u00e4chlich f\u00fcr eine sinnvolle Zusammenarbeit erforderlich?<\/p>\n\n\n\n<p>Wenn Datenschutz mehr sein soll als ein nachtr\u00e4glicher Zusatz, m\u00fcssen wir verstehen, wo in klassischen f\u00f6derierten Protokollen Informationslecks entstehen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Datenschutzbeschr\u00e4nkungen beim Federated Learning im Gesundheitswesen<\/h2>\n\n\n\n<p>In seiner kanonischen Form aggregiert das Federated Learning (z. B. FedAvg) Modellparameter oder Gradienten \u00fcber alle teilnehmenden Institutionen hinweg. W\u00e4hrend rohe medizinische Bilder oder strukturierte Patientenakten vor Ort verbleiben, k\u00f6nnen gemeinsame Aktualisierungen latente Informationen \u00fcber die Trainingsdaten kodieren.<\/p>\n\n\n\n<p>Es wurden mehrere Angriffsklassen demonstriert:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Angriffe zur Ableitung der Mitgliedschaft<\/strong>, bei denen versucht wird, festzustellen, ob ein bestimmter Patientenfalle zum Modelltraining beigetragen hat<\/li>\n\n\n\n<li><strong>Gradienteninversionsangriffe<\/strong>, die in der Lage sind, Eingabemerkmale aus gemeinsam genutzten Gradienten zu rekonstruieren<\/li>\n\n\n\n<li><strong>Eigenschaftsinferenzangriffe<\/strong>, die statistische Merkmale lokaler Datens\u00e4tze extrahieren<\/li>\n<\/ul>\n\n\n\n<p>Beim Federated Learning im Gesundheitswesen sind diese Schwachstellen besonders folgenschwer. MRT-Scans, Pathologie-Objekttr\u00e4ger und elektronische Gesundheitsakten enthalten gesetzlich gesch\u00fctzte und ethisch sensible Informationen. Selbst indirekte Datenlecks durch Modellaktualisierungen k\u00f6nnen zu Compliance-Problemen im Rahmen der DSGVO und vergleichbarer Regulierungssysteme f\u00fchren.<\/p>\n\n\n\n<p>Differential Privacy Mechanismen k\u00f6nnen diese Risiken mindern, indem sie Rauschen in Aktualisierungen einf\u00fcgen. Dies f\u00fchrt jedoch zu Leistungseinbu\u00dfen. In diagnostischen KI-Systemen wirkt sich eine verringerte Sensitivit\u00e4t oder Spezifit\u00e4t direkt auf die klinische Zuverl\u00e4ssigkeit aus. Wichtig ist, dass Differential Privacy zwar auf viele Federated Protocols angewendet werden kann, ihre praktische Wirkung jedoch davon abh\u00e4ngt, wie Informationen aggregiert werden. Bei der Parametermittelung breitet sich das eingef\u00fcgte Rauschen direkt durch hochdimensionale Aktualisierungen aus. Im Gegensatz dazu ist die konsensbasierte Aggregation \u00fcber diskrete Labels von Natur aus robuster gegen\u00fcber solchen St\u00f6rungen, sodass formale Garantien mit vergleichsweise geringeren empirischen Leistungseinbu\u00dfen hinzugef\u00fcgt werden k\u00f6nnen. Mit anderen Worten: Datenschutzgarantien und Vorhersageleistung stehen bei der konsensbasierten Zusammenarbeit weniger im Widerspruch zueinander als bei der Parametermittelung. In der Praxis erwies sich dies als folgenreicher als erwartet. W\u00e4hrend die differentielle Privatsph\u00e4re bei der Parametermittelung oft zu erheblichen Genauigkeitsverlusten f\u00fchrt, wenn bedeutungsvolles Rauschen hinzugef\u00fcgt wird, blieb die Leistung des Konsensmechanismus nahezu unver\u00e4ndert, sodass formale Garantien zu vergleichsweise geringen zus\u00e4tzlichen Kosten effektiv bereitgestellt werden konnten.<\/p>\n\n\n\n<p>Ein alternativer Ansatz, die verteilte Destillation, ersetzt die Parameterfreigabe durch den Austausch von Soft-Labels. Die teilnehmenden Institutionen teilen sich die posterioren Wahrscheinlichkeitsverteilungen eines \u00f6ffentlichen Datensatzes. W\u00e4hrend die Kommunikationskosten sinken, kodieren Soft-Labels weiterhin reichhaltige Informationen zur Entscheidungsgrenze und kalibrierte Unsicherheit.<\/p>\n\n\n\n<p>Dies f\u00fchrt zu einer noch grundlegenderen Frage:<\/p>\n\n\n\n<p><strong>Wie viele Informationen m\u00fcssen Institutionen mindestens austauschen, um effektiv zusammenarbeiten zu k\u00f6nnen?<\/strong><\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><br>Federated Co-Training: Nur Hard Labels teilen<\/h2>\n\n\n\n<p>Eine grunds\u00e4tzliche Antwort auf diese Frage geben Abourayya et al. (2023) in unserer Arbeit <a href=\"https:\/\/arxiv.org\/abs\/2310.05696\" target=\"_blank\" rel=\"noopener\">\u201eLittle is Enough: Boosting Privacy by Sharing Only Hard Labels in Federated Semi-Supervised Learning\u201d<\/a>. Wir stellen <strong>Federated Co-Training (FedCT)<\/strong> vor, ein Protokoll, das die Parameteraggregation durch konsensbasierte Pseudokennzeichnung ersetzt.<\/p>\n\n\n\n<p>Anstatt Gradienten oder Wahrscheinlichkeitsverteilungen auszutauschen, f\u00fchrt jede teilnehmende Einrichtung folgende Schritte durch:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li>Trainieren eines <strong>lokalen Modells<\/strong> anhand privater klinischer Daten.<\/li>\n\n\n\n<li>Generieren von <strong>Hard Labels<\/strong> (endg\u00fcltige Klassenzuweisungen) f\u00fcr Instanzen in einem gemeinsamen \u00f6ffentlichen Datensatz.<\/li>\n\n\n\n<li><strong>\u00dcbertragen nur dieser diskreten Labels<\/strong> an einen zentralen Server.<\/li>\n<\/ol>\n\n\n\n<p>Der Server aggregiert die Vorhersagen in der Regel per Mehrheitsbeschluss und verteilt die konsensbasierten Pseudolabels f\u00fcr das anschlie\u00dfende lokale Training neu.<\/p>\n\n\n\n<p>Dieser Arbeitsablauf ist in <strong>Abbildung 1<\/strong> dargestellt.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"512\" src=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/\/Hard-labels-healthcare-kamp-lamarr-1024x512.png\" alt=\"- Lamarr Institute for Machine Learning (ML) and Artificial Intelligence (AI)\" class=\"wp-image-36067\" title=\"\" srcset=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/Hard-labels-healthcare-kamp-lamarr-1024x512.png 1024w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/Hard-labels-healthcare-kamp-lamarr-300x150.png 300w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/Hard-labels-healthcare-kamp-lamarr-768x384.png 768w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/Hard-labels-healthcare-kamp-lamarr.png 1200w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><figcaption class=\"wp-element-caption\"><br>Abbildung 1: Workflow f\u00fcr Federated Co-Training \u00a9 Abourayya et al. (2023)<\/figcaption><\/figure>\n\n\n\n<p>Lokale Modelle, die anhand von Daten privater Krankenh\u00e4user trainiert wurden, generieren Vorhersagen zu gemeinsam genutzten \u00f6ffentlichen Daten. Nur harte Labels werden an den FedCT-Server \u00fcbertragen, wo konsensbasierte Pseudo-Labels gebildet und neu verteilt werden.<\/p>\n\n\n\n<p>Der konzeptionelle Wandel ist einfach: Zusammenarbeit erfordert keine Weitergabe von Modellinterna mehr. Weiche Labels kodieren kalibrierte Unsicherheit und die \u00c4hnlichkeitsstruktur zwischen Klassen. Harte Labels reduzieren diese Darstellung auf ein einziges kategorisches Ergebnis. Aus informationstheoretischer Sicht verringert die Reduzierung von Wahrscheinlichkeitsverteilungen auf definitive Klassenentscheidungen die Menge der \u00fcbertragenen Informationen und schr\u00e4nkt die potenzielle Angriffsfl\u00e4che ein.<\/p>\n\n\n\n<p><strong>F\u00fcr das Federated Learning im Gesundheitswesen st\u00e4rkt diese Reduzierung der gemeinsam genutzten Informationen direkt die Widerstandsf\u00e4higkeit des Datenschutzes.<\/strong><\/p>\n\n\n\n<p><br>Auf den ersten Blick k\u00f6nnte man erwarten, dass die Weitergabe von weniger Informationen zwangsl\u00e4ufig die Modellleistung verringert. \u00dcberraschenderweise haben wir das Gegenteil beobachtet: Das konsensbasierte Protokoll entspricht dem klassischen f\u00f6derierten Mittelwert und konvergiert oft schneller, was darauf hindeutet, dass Mehrheitsentscheidungen fr\u00fchzeitige Trainingsst\u00f6rungen wirksamer d\u00e4mpfen k\u00f6nnen als Parametermittelungen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Empirische Bewertung des Datenschutzes<\/h2>\n\n\n\n<p>Die Privatsph\u00e4re im FedCT-Framework wird anhand einer Schwachstellenmetrik (VUL) bewertet, die aus den Erfolgsraten von Mitgliedschafts-Inferenzangriffen abgeleitet wird. Ein VUL-Wert von 0,5 entspricht einer zuf\u00e4lligen Vermutung und somit einer optimalen Privatsph\u00e4re.<\/p>\n\n\n\n<p><strong>Abbildung 2<\/strong> veranschaulicht den Kompromiss zwischen Privatsph\u00e4re und Nutzen bei mehreren f\u00f6derierten Strategien.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"512\" src=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/\/hard-labels-healthcare-accuracy-kamp-lamarr-1024x512.png\" alt=\"- Lamarr Institute for Machine Learning (ML) and Artificial Intelligence (AI)\" class=\"wp-image-36070\" title=\"\" srcset=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/hard-labels-healthcare-accuracy-kamp-lamarr-1024x512.png 1024w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/hard-labels-healthcare-accuracy-kamp-lamarr-300x150.png 300w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/hard-labels-healthcare-accuracy-kamp-lamarr-768x384.png 768w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/hard-labels-healthcare-accuracy-kamp-lamarr.png 1200w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><figcaption class=\"wp-element-caption\"><br>Abbildung 2: Testgenauigkeit vs. Datenschutzanf\u00e4lligkeit, wobei die Anf\u00e4lligkeit als Erfolgswahrscheinlichkeit eines Angriffs zur Ableitung der Mitgliedschaft gemessen wird. \u00a9 Abourayya et al. (2023)<\/figcaption><\/figure>\n\n\n\n<p>Das Diagramm vergleicht FedCT, DP-FedCT, FedAvg, DP-FedAvg und Distributed Distillation (DD). Niedrigere VUL-Werte weisen auf einen h\u00f6heren Datenschutz hin.<\/p>\n\n\n\n<p>Empirisch gesehen erreicht FedCT VUL-Werte nahe 0,5, was bedeutet, dass Angriffe zur Ableitung von Mitgliedschaften fast wie zuf\u00e4llige Vermutungen funktionieren, w\u00e4hrend gleichzeitig eine wettbewerbsf\u00e4hige Testgenauigkeit beibehalten wird. Im Gegensatz dazu weisen klassische f\u00f6derierte Mittelwertbildung und Soft-Label-Ans\u00e4tze eine h\u00f6here Anf\u00e4lligkeit f\u00fcr Datenschutzverletzungen auf.<\/p>\n\n\n\n<p>In klinischen Umgebungen mit hohem Risiko, in denen die beh\u00f6rdliche Kontrolle erheblich ist, sind empirische Belege daf\u00fcr, dass Angriffe nicht besser als zuf\u00e4llige Vermutungen sind, nicht nur ein weiterer Beweis, sondern entscheidend.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Leistung bei Aufgaben der klinischen Bildgebung<\/h2>\n\n\n\n<p>Die Diagnoseleistung bleibt f\u00fcr jedes klinische KI-System von zentraler Bedeutung. Wir haben FedCT anhand von Benchmark-Datens\u00e4tzen sowie medizinischen Bildgebungsaufgaben bewertet, darunter die Klassifizierung von Lungenentz\u00fcndungen und die Erkennung von Hirntumoren mittels MRT.<\/p>\n\n\n\n<p><strong>Tabelle 1<\/strong> zeigt die Testgenauigkeit (ACC) und die Privatsph\u00e4renverletzlichkeit (VUL) bei homogenen Client-Verteilungen (m = 5).<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"512\" src=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/\/Hard-labels-performance-clinical-imaging-tasks-kamp-lamarr-1024x512.png\" alt=\"- Lamarr Institute for Machine Learning (ML) and Artificial Intelligence (AI)\" class=\"wp-image-36074\" title=\"\" srcset=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/Hard-labels-performance-clinical-imaging-tasks-kamp-lamarr-1024x512.png 1024w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/Hard-labels-performance-clinical-imaging-tasks-kamp-lamarr-300x150.png 300w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/Hard-labels-performance-clinical-imaging-tasks-kamp-lamarr-768x384.png 768w, https:\/\/lamarr-institute.org\/wp-content\/uploads\/Hard-labels-performance-clinical-imaging-tasks-kamp-lamarr.png 1200w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><figcaption class=\"wp-element-caption\"><br><em><br><\/em>Tabelle 1: Testgenauigkeit (ACC) und Datenschutzanf\u00e4lligkeit (VUL) (Eine geringere VUL bedeutet einen st\u00e4rkeren Datenschutz.). \u00a9 Abourayya et al. (2023)<\/figcaption><\/figure>\n\n\n\n<p>Sowohl bei Lungenentz\u00fcndungs- als auch bei MRT-Aufgaben erreicht FedCT eine mit FedAvg vergleichbare Genauigkeit und verbessert gleichzeitig die Datenschutzmetriken erheblich.<\/p>\n\n\n\n<p>Diese Ergebnisse deuten darauf hin, dass beim Federated Learning im Gesundheitswesen Datenschutzgewinne nicht auf Kosten der klinisch relevanten Vorhersageleistung gehen m\u00fcssen.<\/p>\n\n\n\n<p><\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Robustheit bei heterogenen Krankenhausdaten<\/h2>\n\n\n\n<p>Gesundheitsdaten sind von Natur aus heterogen. Unterschiede bei Bildgebungsger\u00e4ten, Erfassungsprotokollen, Patientendemografien und institutionellen Praktiken f\u00fchren zu nicht-iid-Verteilungen zwischen den Standorten. Diese Heterogenit\u00e4t stellt eine Herausforderung f\u00fcr die klassische Parameteraggregation dar. FedCT mindert extreme lokale Verzerrungen durch Konsensaggregation. Die Mehrheitsentscheidung gl\u00e4ttet idiosynkratische Entscheidungsgrenzen, ohne dass eine Angleichung der internen Modelldarstellungen erforderlich ist. Empirische Bewertungen zeigen, dass FedCT unter heterogenen Client-Verteilungen eine wettbewerbsf\u00e4hige Genauigkeit beibeh\u00e4lt und gleichzeitig seinen Datenschutzvorteil bewahrt.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><br>Interpretierbarkeit und Modellflexibilit\u00e4t<\/h2>\n\n\n\n<p>Interpretierbarkeit ist eine Kernanforderung in der klinischen KI. Regulatorische Rahmenbedingungen verlangen zunehmend Transparenz und \u00dcberpr\u00fcfbarkeit automatisierter Entscheidungssysteme.<\/p>\n\n\n\n<p>Das standardm\u00e4\u00dfige Federated Learning geht von homogenen neuronalen Netzwerkarchitekturen aus, um eine Parametermittelung zu erm\u00f6glichen. Dies schr\u00e4nkt die Verwendung von inh\u00e4rent interpretierbaren Modellen wie Entscheidungsb\u00e4umen, Zufallsw\u00e4ldern und Regelensembles ein. FedCT entkoppelt die Zusammenarbeit von der Parametermittelung. Da nur Vorhersagen ausgetauscht werden, k\u00f6nnen die teilnehmenden Institutionen heterogene Modellklassen verwenden, einschlie\u00dflich solcher interpretierbarer Modelle, die bei strukturierten klinischen Vorhersageaufgaben oft bevorzugt werden. F\u00fcr das Federated Learning im Gesundheitswesen erweitert diese architektonische Flexibilit\u00e4t die Anwendbarkeit in Umgebungen, die Erkl\u00e4rbarkeit erfordern.<br><\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Kommunikationseffizienz<\/h2>\n\n\n\n<p>Gro\u00dfe neuronale Architekturen k\u00f6nnen Millionen von Parametern enthalten. In multi-institutionellen Krankenhausnetzwerken verursacht die wiederholte \u00dcbertragung solcher Aktualisierungen einen erheblichen Kommunikationsaufwand.<\/p>\n\n\n\n<p>FedCT reduziert das Kommunikationsvolumen im Vergleich zu FedAvg um bis zu zwei Gr\u00f6\u00dfenordnungen, da nur diskrete Klassenbezeichnungen ausgetauscht werden.<\/p>\n\n\n\n<p>Diese Effizienz verbessert die Skalierbarkeit in internationalen Forschungskonsortien und ressourcenbeschr\u00e4nkten klinischen Umgebungen und st\u00e4rkt damit die Praktikabilit\u00e4t des Federated Learning im Gesundheitswesen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><br>Erweiterung auf klinische Sprachmodelle<\/h2>\n\n\n\n<p>KI im Gesundheitswesen nutzt zunehmend gro\u00dfe Sprachmodelle (LLMs) f\u00fcr Aufgaben wie die Zusammenfassung klinischer Notizen, Ph\u00e4notypisierung und automatisierte Kodierung.<\/p>\n\n\n\n<p>Vorl\u00e4ufige Untersuchungen deuten darauf hin, dass konsensbasierte Zusammenarbeit \u00fcber Bildgebungs- und strukturierte Vorhersageaufgaben hinaus auf generative Modelle ausgeweitet werden kann. Der Pseudo-Labeling-Mechanismus liefert ein stabiles Kollaborationssignal, ohne dass Gradientenaktualisierungen aus sensiblen Textdaten weitergegeben werden m\u00fcssen.<\/p>\n\n\n\n<p>Dies deutet darauf hin, dass Protokolle mit minimalen Informationen \u00fcber Bildgebung und strukturierte Vorhersagen hinaus auf sprachbasierte klinische KI verallgemeinert werden k\u00f6nnen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Offene Fragen und Zukunftsperspektiven<\/h2>\n\n\n\n<p>Obwohl FedCT den Datenschutz beim Federated Learning im Gesundheitswesen erheblich st\u00e4rkt, bleiben einige Fragen offen:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Wie empfindlich reagiert die Leistung auf die Repr\u00e4sentativit\u00e4t des gemeinsam genutzten \u00f6ffentlichen Datensatzes?<\/li>\n\n\n\n<li>K\u00f6nnen synthetische oder generative Daten als robuste \u00f6ffentliche Anker dienen?<\/li>\n\n\n\n<li>Wie kann die Konsensaggregation gegen feindliche Manipulationen von Labels gest\u00e4rkt werden?<\/li>\n\n\n\n<li>Was sind die theoretischen Datenschutzgrenzen bei extremer Heterogenit\u00e4t?<\/li>\n<\/ul>\n\n\n\n<p><br>Zuk\u00fcnftige Arbeiten an der Schnittstelle von Federated Learning, semi-\u00fcberwachtem Lernen und datenschutzkonformen maschinellem Lernen werden diese Fragen weiter kl\u00e4ren.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><br>Fazit: Minimale Informationen als klinisches Designprinzip<\/h2>\n\n\n\n<p>Federated Learning im Gesundheitswesen zielt darauf ab, eine Zusammenarbeit zu erm\u00f6glichen, ohne Patientendaten zu zentralisieren. Die gemeinsame Nutzung von Parametern und der Austausch von Soft-Labels bergen jedoch weiterhin Risiken f\u00fcr die Privatsph\u00e4re.<\/p>\n\n\n\n<p>Federated Co-Training zeigt, dass der Austausch von Hard-Labels die f\u00fcr potenzielle Angreifer verf\u00fcgbaren Informationen reduziert und gleichzeitig eine wettbewerbsf\u00e4hige Diagnoseleistung gew\u00e4hrleistet. In diesem Sinne verl\u00e4sst es die urspr\u00fcngliche Idee des Federated Learning nicht \u2013 es f\u00fchrt sie konsequent zu Ende. Durch die Minimierung der ausgetauschten Informationen entspricht der Ansatz den regulatorischen Grunds\u00e4tzen der Datenminimierung und des Datenschutzes by Design.<\/p>\n\n\n\n<p><br>F\u00fcr die Forschung im Bereich Life Sciences &amp; Health bietet dieses Paradigma:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>St\u00e4rkere empirische Datenschutzgarantien<\/li>\n\n\n\n<li>Kompatibilit\u00e4t mit interpretierbaren Modellen<\/li>\n\n\n\n<li>Robustheit bei heterogenen Krankenhausdaten<\/li>\n\n\n\n<li>Signifikante Kommunikationseffizienz<\/li>\n<\/ul>\n\n\n\n<p><br>Die Verbesserung des Federated Learning im Gesundheitswesen erfordert nicht unbedingt immer komplexere Schutzmechanismen, die auf bestehende Protokolle aufgesetzt werden. Stattdessen muss grundlegend hinterfragt werden, welche Informationen \u00fcberhaupt jemals ausgetauscht werden mussten.<\/p>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>K\u00f6nnen Krankenh\u00e4user gemeinsam diagnostische KI trainieren, ohne Patientendaten preiszugeben? Hard-Label-Federated-Co-Training st\u00e4rkt Federated Learning im Gesundheitswesen und bewahrt gleichzeitig die Diagnoseleistung. <\/p>\n","protected":false},"author":14,"featured_media":36079,"template":"","meta":{"_acf_changed":false,"footnotes":""},"blog-category":[1416,396,1664],"blog-tag":[1480,1662,1592],"class_list":["post-36086","blog","type-blog","status-publish","has-post-thumbnail","hentry","blog-category-alle-blogbeitraege","blog-category-forschung","blog-category-ki-in-gesundheit-medizin","blog-tag-deep-learning-de","blog-tag-federated-learning","blog-tag-semi-ueberwachtes-lernen"],"acf":[],"publishpress_future_workflow_manual_trigger":{"enabledWorkflows":[]},"_links":{"self":[{"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog\/36086","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog"}],"about":[{"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/types\/blog"}],"author":[{"embeddable":true,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/users\/14"}],"version-history":[{"count":6,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog\/36086\/revisions"}],"predecessor-version":[{"id":36093,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog\/36086\/revisions\/36093"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/media\/36079"}],"wp:attachment":[{"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/media?parent=36086"}],"wp:term":[{"taxonomy":"blog-category","embeddable":true,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog-category?post=36086"},{"taxonomy":"blog-tag","embeddable":true,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog-tag?post=36086"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}