{"id":4205,"date":"2021-12-08T03:29:56","date_gmt":"2021-12-08T03:29:56","guid":{"rendered":"https:\/\/lamarr-institute.org\/blog\/ki-verantwortung\/"},"modified":"2025-11-12T14:52:03","modified_gmt":"2025-11-12T14:52:03","slug":"ki-verantwortung","status":"publish","type":"blog","link":"https:\/\/lamarr-institute.org\/de\/blog\/ki-verantwortung\/","title":{"rendered":"Das war ich nicht! &#8211; Wer ist verantwortlich f\u00fcr KI-gest\u00fctzte Entscheidungen?"},"content":{"rendered":"\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p>Anna nimmt ihrem kleinen Bruder sein Spielzeug weg und er f\u00e4ngt an zu schreien. Der Vater kommt ins Zimmer und erfasst die Situation sofort. \u201eAnna, du darfst deinem Bruder nicht sein Spielzeug wegnehmen!\u201c sagt er vorwurfsvoll, \u201eEntschuldige dich bei ihm!\u201c Daraufhin gibt Anna das Spielzeug zur\u00fcck und entschuldigt sich widerwillig.<\/p>\n\n\n\n<p>2018 r\u00e4umen die Unternehmen Volkswagen und Audi ihre Verantwortung wegen Aufsichtspflichtverletzung im Abgasskandal ein und zahlen hohe Strafen im Zusammenhang mit ihrer Manipulation von Abgaswerten.<\/p>\n<\/blockquote>\n\n\n\n<p>Diese Beispiele illustrieren die Relevanz von Verantwortungszuschreibungen in privaten wie in \u00f6ffentlichen Kontexten. Es ist wichtig f\u00fcr uns, dass Personen f\u00fcr ihre Handlungen Verantwortung und gegebenenfalls Konsequenzen tragen. Wir machen einander Vorw\u00fcrfe f\u00fcr Fehlverhalten und erwarten von anderen Schuldeingest\u00e4ndnisse und Wiedergutmachung, wenn sie etwas falsch gemacht haben. Nur \u2013 was wird aus dieser Praxis, wenn nicht Menschen, sondern KI-Systeme Entscheidungen treffen?<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span style=\"font-size: 18pt;\">Das Problem der Verantwortungsl\u00fccke<\/span><\/h2>\n\n\n\n<p>Stellen wir uns die Personalabteilung eines gro\u00dfen Unternehmens vor, das seine Bewerbungsverfahren vollst\u00e4ndig automatisiert hat. Ein autonomes KI-Recruitment-System erh\u00e4lt alle Informationen aus den Bewerbungen eines bestimmten Verfahrens. Es sortiert dann selbst\u00e4ndig ungeeignete Bewerbungen aus. Nehmen wir an, dass das System auf der Basis bestimmter Gruppenmerkmale \u2013 zum Beispiel Hautfarbe und <a href=\"https:\/\/www.zeit.de\/arbeit\/2018-10\/bewerbungsroboter-kuenstliche-intelligenz-amazon-frauen-diskriminierung\" target=\"_blank\" rel=\"noopener\">Geschlecht<\/a> \u2013 eine Person zu Unrecht als ungeeignet f\u00fcr die ausgeschriebene Position klassifiziert und ihre Bewerbung aussortiert. Das Recruitment-System weist folglich einen <a href=\"https:\/\/lamarr-institute.org\/de\/ki-fairness\/\" target=\"_blank\" rel=\"noreferrer noopener\"><em>Bias<\/em><\/a> auf (ist also voreingenommen) und diskriminiert dadurch etwa eine Schwarze Bewerberin.<\/p>\n\n\n\n<p>Auch Menschen sind manchmal gegen\u00fcber Mitgliedern bestimmter gesellschaftlicher Gruppen voreingenommen \u2013 Personaler*innen h\u00e4tten die Schwarze Bewerberin vielleicht ebenfalls aufgrund von Vorurteilen nicht in die engere Wahl gezogen. Es gibt jedoch einen gro\u00dfen Unterschied: Wenn ein*e Personaler*in die Bewerberin diskriminiert, dann tr\u00e4gt diese*r daf\u00fcr offensichtlich die Verantwortung. Wir k\u00f6nnen der Person Vorw\u00fcrfe machen oder vielleicht sogar juristisch gegen diese oder das Unternehmen vorgehen. Aber wen trifft die Schuld, wenn das vollautomatisierte Recruitment-System die Bewerberin diskriminiert? In der philosophischen Debatte \u00fcber <a href=\"https:\/\/link.springer.com\/article\/10.1007\/s10676-004-3422-1\" target=\"_blank\" rel=\"noopener\"><em>Verantwortungsl\u00fccken<\/em><\/a> wird argumentiert, dass in manchen F\u00e4llen dieser Art <em>niemand<\/em> mehr die Verantwortung tr\u00e4gt. Es gibt ja keine Person, der die diskriminierende Entscheidung f\u00e4llt. Also muss und kann auch niemand f\u00fcr sie geradestehen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span style=\"font-size: 18pt;\">Indirekte Verantwortung<\/span><\/h2>\n\n\n\n<p>Aber halt! Ist nicht offensichtlich das Unternehmen verantwortlich, das das diskriminierende System f\u00fcr die Personalauswahl verwendet? Alternativ: M\u00fcssen nicht die Entwickler*innen des Systems die Verantwortung tragen, da sie es so schlecht konstruiert haben, dass es Menschen diskriminiert?<\/p>\n\n\n\n<p>In manchen F\u00e4llen kann man sicherlich Verantwortungsl\u00fccken so schlie\u00dfen. Betreiber*innen oder Entwickler*innen eines Systems sind zwar nicht direkt f\u00fcr die diskriminierende Entscheidung verantwortlich, aber doch zumindest <em>indirekt. <\/em>Denn sie sind daf\u00fcr verantwortlich, ein diskriminierendes KI-System eingesetzt beziehungsweise entwickelt zu haben.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span style=\"font-size: 18pt;\">Das Problem der vielen H\u00e4nde<\/span><\/h2>\n\n\n\n<p>Leider kann diese Argumentationskette nicht immer funktionieren. Einige F\u00e4lle werfen ein \u201e<a href=\"https:\/\/www.cambridge.org\/core\/journals\/american-political-science-review\/article\/abs\/moral-responsibility-of-public-officials-the-problem-of-many-hands\/39DD3FAB7BF7DC7A242407143674F22B\" target=\"_blank\" rel=\"noopener\">Problem der vielen H\u00e4nde<\/a>\u201c auf: In komplexen Situationen mit vielen Beteiligten l\u00e4sst sich oft gar kein*e Verantwortliche*r f\u00fcr ein schlechtes Resultat finden. Denn es gibt zu viele beteiligte Parteien, als dass man feststellen k\u00f6nnte, wer wirklich die Schuld tr\u00e4gt. Ein m\u00f6glicher Grund daf\u00fcr: Es war f\u00fcr die Beteiligten m\u00f6glicherweise aufgrund der komplexen Gesamtlage nicht vorhersehbar, dass ihre jeweilige Handlung zu einem schlechten Resultat beitragen w\u00fcrde.<\/p>\n\n\n\n<p>Im Fall des vollautomatisierten Recruitment-Systems haben wir viele Beteiligte und eine komplexe Gesamtlage. So ist es m\u00f6glich, dass die Entwickler*innen des Systems alles getan haben, um Bias auszuschlie\u00dfen, zum Beispiel indem sie das System auf diskriminierende Entscheidungen hin getestet (und keine gefunden) haben. Vielleicht betreibt das Unternehmen das System, weil es von einer vertrauensw\u00fcrdigen und unabh\u00e4ngigen Organisation als diskriminierungsfrei zertifiziert wurde. Trotz dieser Vorkehrungen kann ein Bias vorliegen, der aber nur in seltenen Situationen hervortritt, wie in unserem Beispiel durch eine Kombination der Gruppenzugeh\u00f6rigkeiten Geschlecht und Hautfarbe. Da algorithmischer Bias weitverbreitet ist und es unklar ist, ob wir diesen immer aufsp\u00fcren k\u00f6nnen, ist dies ein ernstzunehmendes Problem. In einem solchen Fall ist es schwierig, die Entwickler*innen oder die Betreiber*innen auch nur indirekt f\u00fcr die diskriminierende Entscheidung des Recruitment-Systems verantwortlich zu machen. Das Problem der Verantwortungsl\u00fccke besteht fort.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span style=\"font-size: 18pt;\">Auftritt: <em>Human in the loop<\/em><\/span><\/h2>\n\n\n\n<p>Eine bessere L\u00f6sung ist es, den Personalauswahlprozess anders zu organisieren. Entscheidungen von gro\u00dfer Tragweite sollten in vielen F\u00e4llen nicht voll automatisiert werden, sondern erfordern einen <em>Menschen in der Schleife <\/em>(human in the loop). KI-Systeme dienen dann nur noch der Entscheidungsunterst\u00fctzung und geben Empfehlungen, auf deren Basis ein Mensch entscheidet. Dieser Mensch tr\u00e4gt dann die Verantwortung f\u00fcr die KI-gest\u00fctzte Entscheidung.<\/p>\n\n\n\n<p>Kann dieser Vorschlag alle Probleme l\u00f6sen? Nehmen wir an, Personaler*innen erhalten vom System Empfehlungen, ohne zu wissen, warum es diese Empfehlungen abgibt und ob diese aufgrund eines verborgenen Bias im System abgegeben werden. Dann k\u00f6nnen wir Personen nicht f\u00fcr Entscheidungen verantwortlich machen, von deren potenzieller moralischer Tragweite sie nichts wissen konnten.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span style=\"font-size: 18pt;\">Wir brauchen erkl\u00e4rbare KI<\/span><\/h2>\n\n\n\n<p>Um Verantwortung zu erm\u00f6glichen, sollten KI-Systeme in solchen F\u00e4llen ihre Empfehlung <a href=\"https:\/\/machinelearning-blog.de\/grundlagen\/erklaerbarkeit-kuenstliche-intelligenz\/\" target=\"_blank\" rel=\"noopener\"><em>erkl\u00e4ren<\/em><\/a> k\u00f6nnen. Wird die Empfehlung des Entscheidungsunterst\u00fctzungssystems gegen eine Bewerberin damit erkl\u00e4rt, dass sie eine Schwarze Frau ist, so k\u00f6nnen Personaler*innen in der Schleife sehr wohl wissen, dass eine entsprechende Entscheidung diskriminierend w\u00e4re. Wird der automatisierten Empfehlung dennoch gefolgt und die Bewerberin nicht eingeladen, so wissen die Personaler*innen um die moralische Tragweite ihrer Entscheidung und wir k\u00f6nnen sie f\u00fcr diese verantwortlich machen.<\/p>\n\n\n\n<p>Diese \u00dcberlegungen machen die Relevanz von erkl\u00e4rbarer KI f\u00fcr eine L\u00f6sung des Problems der Verantwortungsl\u00fccke deutlich. Daran schlie\u00dfen sich die Fragen an, wie wir <em>erstens<\/em> Erkl\u00e4rungen f\u00fcr Outputs eines Systems gewinnen k\u00f6nnen und welche Art von Erkl\u00e4rungen <em>zweitens <\/em>geeignet ist, um zum Beispiel Personaler*innen wirklich in die Lage zu versetzen, verantwortlich zu entscheiden. Das Problem der Verantwortungsl\u00fccke er\u00f6ffnet damit einen Raum f\u00fcr spannende interdisziplin\u00e4re Forschungsprojekte an der Schnittstelle zwischen Informatik und Philosophie.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Der Einsatz k\u00fcnstlicher intelligenter Systeme erschwert es uns, Personen f\u00fcr Fehlentscheidungen verantwortlich zu machen. Die Einbindung menschlicher Akteure und erkl\u00e4rbarer KI-Systeme erm\u00f6glicht eine Verantwortungszuschreibung bei KI-gest\u00fctzten Entscheidungsprozessen.<\/p>\n","protected":false},"author":9,"featured_media":4206,"template":"","meta":{"_acf_changed":true,"footnotes":""},"blog-category":[1416,437,390,438],"blog-tag":[1484,1531,1593,1454],"class_list":["post-4205","blog","type-blog","status-publish","has-post-thumbnail","hentry","blog-category-alle-blogbeitraege","blog-category-gastbeitrag","blog-category-grundlagen","blog-category-ki-ethik","blog-tag-erklaerbare-ki-xai","blog-tag-ki-ethik","blog-tag-sichere-ki","blog-tag-verzerrung-bias"],"acf":[],"publishpress_future_workflow_manual_trigger":{"enabledWorkflows":[]},"_links":{"self":[{"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog\/4205","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog"}],"about":[{"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/types\/blog"}],"author":[{"embeddable":true,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/users\/9"}],"version-history":[{"count":0,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog\/4205\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/media\/4206"}],"wp:attachment":[{"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/media?parent=4205"}],"wp:term":[{"taxonomy":"blog-category","embeddable":true,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog-category?post=4205"},{"taxonomy":"blog-tag","embeddable":true,"href":"https:\/\/lamarr-institute.org\/de\/wp-json\/wp\/v2\/blog-tag?post=4205"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}