{"id":4198,"date":"2021-12-01T05:11:27","date_gmt":"2021-12-01T05:11:27","guid":{"rendered":"https:\/\/lamarr-institute.org\/blog\/ki-fairness\/"},"modified":"2025-11-12T14:52:03","modified_gmt":"2025-11-12T14:52:03","slug":"ki-fairness","status":"publish","type":"blog","link":"https:\/\/lamarr-institute.org\/de\/blog\/ki-fairness\/","title":{"rendered":"Die mathematischen und ethischen Herausforderungen fairer KI"},"content":{"rendered":"\n<p>Wenn wir k\u00fcnstliche Intelligenz (KI) f\u00fcr wichtige Aufgaben einsetzen, wollen wir, dass diese KI alle Menschen fair behandelt. Leider ist dies jedoch h\u00e4ufig nicht der Fall: Zum Beispiel <a href=\"https:\/\/www.reuters.com\/article\/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G\" target=\"_blank\" rel=\"noopener\">musste Amazon 2018 ein System zur Vorauswahl von Bewerber&nbsp;innen aus dem Verkehr ziehen<\/a>, weil dieses System systematisch Bewerbungen aussortierte, in denen das Wort \u201eFrauen\u201c vorkam (zum Beispiel Kapit\u00e4nin der <em>Frauen<\/em>fu\u00dfballmannschaft). Daher gibt es eine rege Debatte dar\u00fcber, wie KI-Systeme gestaltet werden k\u00f6nnen, damit sie faire Entscheidungen unterst\u00fctzen. Diese st\u00f6\u00dft jedoch auf die elementare Frage, die weder mathematisch noch ethisch leicht zu beantworten ist: Wann genau ist ein System fair?<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span style=\"font-size: 18pt;\">Warum sind KI-Systeme \u00fcberhaupt unfair?<\/span><\/h2>\n\n\n\n<p>Im ersten Moment k\u00f6nnte man erwarten, dass KI-Systeme, die keine Vorurteile, individuellen Vorlieben oder eigene Agenda haben, automatisch faire Entscheidungen treffen. Doch k\u00fcnstliche Intelligenz braucht Daten und sie braucht Vorgaben, nach welchen Zusammenh\u00e4ngen sie in diesen Daten suchen soll. Eine KI zur Personalauswahl, die auf maschinellem Lernen beruht, kann zum Beispiel mithilfe von Daten aus fr\u00fcheren Bewerbungen darauf trainiert werden, in diesen Daten gute Bewerber*innen zu erkennen. Dazu m\u00fcssen die Daten jedoch mit Labels versehen werden, bei wem es sich um eine*n gute*n Bewerber*in handelt. Sowohl der Datensatz als auch diese Labels k\u00f6nnen unsere unfaire Gesellschaft widerspiegeln \u2013 denn beides wird von menschlichen Entscheidungen beeinflusst. Menschliche Vorurteile k\u00f6nnen Teil des Datensatzes sein, wenn zum Beispiel ein Programm zur Personalauswahl Empfehlungsschreiben analysiert. Sie k\u00f6nnen das Aussehen des Datensatzes beeinflussen, wenn ein solches Programm fast nur mit Daten wei\u00dfer Bewerber*innen trainiert wird. Oder sie k\u00f6nnen sich in den Entscheidungen der KI widerspiegeln, wenn diese darauf trainiert wird, menschliche Entscheidungen zu imitieren.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span style=\"font-size: 18pt;\">Welche L\u00f6sungen werden vorgeschlagen?<\/span><\/h2>\n\n\n\n<p>Eine erste g\u00e4ngige Reaktion auf dieses Problem ist, Informationen \u00fcber die sogenannten gesch\u00fctzten Eigenschaften (zum Beispiel Geschlecht, Ethnie, Alter) zur\u00fcckhalten zu wollen. \u00c4hnliches wird auch oft bei menschlichen Entscheider*innen gemacht: Wenn etwa die Personalerin nicht wei\u00df, dass ein Bewerber aus der T\u00fcrkei stammt, kann sie ihn deswegen auch nicht benachteiligen. Im Fall von KI hat dieses Vorgehen jedoch ein Problem: Es ist die gro\u00dfe St\u00e4rke von KI-Systemen, dass sie komplexe Zusammenh\u00e4nge in gro\u00dfen Datens\u00e4tzen entdecken. Die Zugeh\u00f6rigkeit zu einer gesch\u00fctzten Gruppe hinterl\u00e4sst meist auch Spuren in den weiteren erhobenen Daten und KI-Systeme k\u00f6nnen diese Spuren nutzen. So kann es sein, dass ein Algorithmus, der keine direkten Informationen \u00fcber das Geschlecht der Bewerber*innen erh\u00e4lt, dennoch M\u00e4nner besser behandelt als Menschen anderen Geschlechts zum Beispiel, weil er Menschen aussortiert, die auf Schwangerschaften hindeutende Abwesenheitszeiten haben, Mitglied in bestimmten Vereinen sind oder einem Hobby nachgehen, das statistisch gesehen bei M\u00e4nnern eher unbeliebt ist.<\/p>\n\n\n\n<p>Ein zweiter m\u00f6glicher Ansatz ist, statistisch zu analysieren, ob das System verschiedene Gruppen (zum Beispiel verschiedene Geschlechter) \u00e4hnlich behandelt. Es ist dabei allgemein akzeptiert, dass ein solches KI-System nicht jede*n Bewerber*in korrekt klassifizieren w\u00fcrde. Manchmal werden also sehr f\u00e4hige Bewerber*innen schlecht und manchmal weniger f\u00e4hige Bewerber*innen sehr gut eingestuft. In einem fairen System sollten diese Fehler nicht zu Lasten einer bestimmten Gruppe gehen, es sollten also zum Beispiel nicht st\u00e4ndig qualifizierte Frauen oder nicht-bin\u00e4re Personen abgelehnt und daf\u00fcr weniger qualifizierte M\u00e4nner eingeladen werden. Auf den ersten Blick k\u00f6nnte man erwarten, dass sich Fairness in diesem Sinne leicht mathematisch \u00fcberpr\u00fcfen l\u00e4sst. Dabei gibt es jedoch ein Problem: Es gibt verschiedene plausible Kriterien daf\u00fcr, wann ein System statistisch gesehen fair ist. In Bezug auf diese Kriterien <a href=\"https:\/\/arxiv.org\/abs\/1610.07524\" target=\"_blank\" rel=\"noopener\">kann mathematisch gezeigt werden<\/a>, dass sie nicht gleichzeitig erf\u00fcllt werden k\u00f6nnen, wenn der Anteil an Qualifizierten innerhalb der verschiedenen Gruppen unterschiedlich gro\u00df ist.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span style=\"font-size: 18pt;\">Ein fairer Algorithmus? Szenario 1<\/span><\/h2>\n\n\n\n<p>Schauen wir uns hierzu einmal ein Beispiel mit Zahlen an (siehe Tabelle 1). Stellen wir uns vor, dass eine Personalerin ein KI-System nutzt, um Bewerbungen auszusortieren, die sie sich nicht anzuschauen braucht. Nehmen wir der Einfachheit halber an, wir haben ein Bewerberfeld aus 100 Frauen und 100 M\u00e4nnern. Von den Frauen sind 60 f\u00fcr die Aufgabe qualifiziert, von den M\u00e4nnern nur 20. Nehmen wir weiterhin an, wir haben einen Algorithmus, der von den 60 qualifizierten Frauen 48 an die Personalerin weiterleitet und von den 20 qualifizierten M\u00e4nnern 16. Au\u00dferdem w\u00fcrde er von den 30 nicht qualifizierten Frauen drei und von den 80 nicht qualifizierten M\u00e4nnern acht durchwinken. Analysieren wir diesen Algorithmus statistisch, w\u00fcrden wir feststellen, dass er unabh\u00e4ngig vom Geschlecht 80% der qualifizierten Personen korrekt erkennt und f\u00e4lschlicherweise 10% der unqualifizierten Personen als qualifiziert markiert. In dieser Hinsicht ist der Algorithmus also fair. Schaut man sich dann allerdings die Bewerbungen auf dem Tisch der Personalerin an, w\u00e4ren unter den M\u00e4nnern 33% nicht qualifiziert (8 von 24), von den Frauen hingegen nur ca. 8% (4 von 52). Es bekommen also wesentlich mehr unqualifizierte M\u00e4nner die Chance auf den Job als unqualifizierte Frauen, sowohl prozentual als auch in absoluten Zahlen.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" src=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/Tabelle-Szenario-1-1024x406.png\" alt=\"- Lamarr Institute for Machine Learning (ML) and Artificial Intelligence (AI)\" class=\"wp-image-25017\" title=\"\"><\/figure>\n\n\n\n<h4 class=\"wp-block-heading\">Ein fairer Algorithmus? Szenario 2<\/h4>\n\n\n\n<p>H\u00e4lt man dies f\u00fcr inakzeptabel, k\u00f6nnte man stattdessen ein System trainieren, in dem die Fehlerquote unter den ausgew\u00e4hlten M\u00e4nnern und Frauen jeweils \u00e4hnlich ist (siehe Tabelle 2). Eine M\u00f6glichkeit w\u00e4re hier, ein System zu finden, das bei ansonsten gleichen Zahlen nur einen einzigen unqualifizierten Mann ausw\u00e4hlt. Damit w\u00fcrde sich aber zwangsweise auch eine andere Kenngr\u00f6\u00dfe ver\u00e4ndern: W\u00e4hrend auch hier 10% (4 von 40) der unqualifizierten Frauen eingeladen werden, ist es bei den unqualifizierten M\u00e4nnern nur noch etwa 1% (1 von 80). In diesem Szenario w\u00e4re also die Chance einer unqualifizierten Frau, dass ihre Bewerbung vom System akzeptiert wird, zehnmal so hoch wie die eines unqualifizierten Mannes. Auch dies kann man f\u00fcr unfair halten. Aufgrund der mathematischen Abh\u00e4ngigkeiten gibt es jedoch keine M\u00f6glichkeiten, ein System zu trainieren, das in all diesen Hinsichten ausgeglichen ist.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/lamarr-institute.org\/wp-content\/uploads\/Tabelle-Szenario-2.png\" alt=\"- Lamarr Institute for Machine Learning (ML) and Artificial Intelligence (AI)\" class=\"wp-image-25019\" title=\"\"><\/figure>\n\n\n\n<p>Welches dieser m\u00f6glichen Szenarien nun den fairen (oder zumindest faireren) Ansatz darstellt, ist keine mathematische Frage, sondern h\u00e4ngt vom Kontext und von ethischen \u00dcberlegungen ab. In unserem Fall kann man es zum Beispiel f\u00fcr wichtig halten, dass die Wahrscheinlichkeit, dass eine unqualifizierte Bewerbung auf dem Tisch der Personalerin landet, f\u00fcr beide Gruppen gleich gro\u00df ist. Dann m\u00fcsste man sich f\u00fcr Szenario 1 entscheiden. Alternativ k\u00f6nnte man aber auch den existierenden Ungleichheiten in unserer Gesellschaft entgegenwirken und daher die Wahrscheinlichkeit minimieren wollen, dass Stellen an nicht qualifizierte M\u00e4nner gehen. Dies spr\u00e4che f\u00fcr Szenario 2.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Was lernen wir daraus?<\/h4>\n\n\n\n<p>KI-Entscheidungen sind, wie wir feststellen konnten, keinesfalls automatisch fair und es gibt keinen einfachen mathematischen Weg, die Fairness einer KI-Entscheidung sicherzustellen. Stattdessen muss die Suche nach einem fairen KI-System auf bewussten, ethisch informierten Designentscheidungen beruhen, die die Zusammenh\u00e4nge zwischen den benutzen Daten und bestehenden gesellschaftlichen Ungerechtigkeiten beachten. Sich diese Herausforderungen bewusst zu machen, ist der erste und notwendige Schritt hin zu faireren KI-Systemen.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Die Entwicklung fairer KI steht vor vielen Herausforderungen. Eine davon: Wie genau sehen eigentlich faire Entscheidungen aus? Diese Frage l\u00e4sst sich weder mathematisch noch ethisch leicht beantworten.<\/p>\n","protected":false},"author":9,"featured_media":4203,"template":"","meta":{"_acf_changed":false,"footnotes":""},"blog-category":[1416,437,390,438],"blog-tag":[1531,1593],"class_list":["post-4198","blog","type-blog","status-publish","has-post-thumbnail","hentry","blog-category-alle-blogbeitraege","blog-category-gastbeitrag","blog-category-grundlagen","blog-category-ki-ethik","blog-tag-ki-ethik","blog-tag-sichere-ki"],"acf":[],"publishpress_future_workflow_manual_trigger":{"enabledWorkflows":[]},"_links":{"self":[{"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog\/4198","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog"}],"about":[{"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/types\/blog"}],"author":[{"embeddable":true,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/users\/9"}],"version-history":[{"count":0,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog\/4198\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/media\/4203"}],"wp:attachment":[{"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/media?parent=4198"}],"wp:term":[{"taxonomy":"blog-category","embeddable":true,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog-category?post=4198"},{"taxonomy":"blog-tag","embeddable":true,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog-tag?post=4198"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}