Automatisierte Entscheidungssysteme und Diskriminierung Ursachen verstehen, Fälle erkennen, Betroffene unterstützen - Ein Ratgeber für ...

Die Seite wird erstellt Marvin Braun
 
WEITER LESEN
Automatisierte Entscheidungssysteme
und Diskriminierung
Ursachen verstehen, Fälle erkennen,
Betroffene unterstützen
Ein Ratgeber für Antidiskriminierungsstellen
ADM-Systeme und Diskriminierung

Impressum

Automatisierte Entscheidungssysteme und Diskriminierung:
Ursachen verstehen, Fälle erkennen, Betroffene unterstützen.
Ein Ratgeber für Antidiskriminierungsstellen
Juni 2022

Online verfügbar auf: https://algorithmwatch.org/de/autocheck/
Herausgeber:
Matthias Spielkamp
AW AlgorithmWatch gGmbH
Linienstraße 13
10178 Berlin
Deutschland
Kontakt: info@algorithmwatch.org

Autorin und Projektmanagerin von „AutoCheck“
Jessica Wulf

Layout und Illustrationen
Beate Autering

Lektorat
Karola Klatt

Gefördert durch die

Diese Publikation steht unter der Lizenz Creative Commons Namensnennung 3.0
Deutschland
https://creativecommons.org/licenses/by/3.0/de/legalcode

                                                                               Seite 2
ADM-Systeme und Diskriminierung

▶ Einleitung........................................... Seite 4
0                                                                        5 Erkennen
                                                                         Ein Fragenkatalog soll Beratende in der
                                                                         Fallklärung dabei unterstützen, Hinweise
1 G
   rundlagen und zentrale                                               auf Algorithmen oder automatisierte
  Begriffe                                                               Entscheidungssysteme zu erkennen. ............ Seite 16
Hier werden zentrale Begriffe geklärt
und in die Funktionsweise automatisierter
Entscheidungs­systeme eingeführt. ................. Seite 5              6 Umgang
                                                                         Anknüpfend an gängige Schritte in der
                                                                         Antidiskriminierungsberatung wird
2 Fallbeispiele                                                         aufgezeigt, wie Beratende mit dem Verdacht
Die Fallbeispiele erzählen von ungerechten                               auf Benachteiligung durch automatisierte
oder dis­kriminierenden Ergebnisse durch die                             Entscheidungssysteme umgehen
Anwendung von automatisierten                                            können. ............................................................. Seite 18
Entscheidungssystemen. .................................. Seite 6

                                                                         7 Glossar
3 Ursachen                                                               Im Glossar werden Begriffe, die für diese
Schaubilder veranschaulichen, wie ungerechte oder                        Publikation relevant sind, verständlich
diskriminierende Ergebnisse durch automa­tisierte                        erläutert. ........................................................... Seite 22
Entscheidungssysteme entstehen. ............... Seite 11

                                                                         8 Quellen zum Thema
4 Anwendungsfelder                                                       Eine Liste mit Empfehlungen für Bücher,
Mit einem Fokus auf privaten Dienstleistungen und                        Filme, Initiativen und vielem mehr möchte
dem Zugang zu Gütern werden relevante Anwen-                             zur weiteren Beschäftigung mit auto­matisierten
dungsfelder automatisierter Entscheidungssysteme                         Entscheidungssystemen
übersichtlich dargestellt. ................................. Seite 14    anregen. ........................................................... Seite 24

      SYMBOLE IN DIESER PUBLIKATION

        Ethnische Herkunft                Geschlechtsidentität                       Alter                              Finanzsektor

       Versicherungssektor                    Online-Handel              Öffentliche Verwaltung                         Arbeitsmarkt

         Wohnungssektor                    Gesundheitssektor                  Bildungssektor

                                                                                                                                              Seite 3
ADM-Systeme und Diskriminierung

▶
0     Einleitung
      „Es steht für mich außer Frage, dass das Diskriminierungsrisiko durch automatisierte
      Entscheidungssysteme alle Lebensbereiche umfassen und in der Antidiskriminierungs­
      arbeit eines der relevantesten Themen sein wird.“ (Interviewpartnerin 021)

Die Einschätzung unserer Kreditwürdigkeit, die Anzeige individualisierter Preise im Online-Handel oder ein
Chatbot, der das (hoffentlich) richtige Formular anbietet – das sind Anwendungsfälle von automatisierten
Entscheidungssystemen2. Diese Systeme begegnen uns in immer mehr Bereichen unseres Lebens. Ihr
Einsatz führt jedoch nicht unbedingt zu objektiveren oder neutraleren Entscheidungen, sondern immer
wieder zu ungerechten, sogar diskriminierenden Ergebnissen.

Die oben zitierte Antidiskriminierungsexpertin schätzt deshalb Diskriminierungsrisiken durch automa-
tisierte Entscheidungssysteme als sehr relevant für die Zukunft der Antidiskriminierungsarbeit ein. Zu
ähnlichen Schlüssen kommen auch eine von der Antidiskriminierungsstelle des Bundes (ADS) in Auftrag
gegebene Studie3 und ein Bericht des Europäischen Netzwerks der Gleichstellungsgremien (Equinet)4.

Doch was genau sind automatisierte Entscheidungssysteme? Wie kommt es zu der Diskriminierung und
was kann in der Beratung dagegen getan werden? Diese und weiterführende Fragen beantworten wir in
konkreten und verständlichen Anleitungen, Schaubildern und Texten in dieser Handreichung.

Diese Publikation ist im Rahmen des Projekts AutoCheck – Handlungsanleitung für den Umgang mit automa­
tisierten Entscheidungssystemen für Antidiskriminierungsstellen entstanden. Sie ist eine erste Einführung in
die Diskriminierungsrisiken beim Einsatz von automatisierten Entscheidungssystemen. Für ein tieferge-
hendes Verständnis der Thematik werden im Rahmen des Projekts Weiterbildungskonzepte entwickelt,
die als Workshops für Multiplikator*innen veröffentlicht und angeboten werden.

Wir wenden uns mit dieser Handreichung in erster Linie an Mitarbeitende von Antidiskriminierungsstellen
in Deutschland. Durch Kompetenzaufbau in diesem zunehmend bedeutsamen Themenfeld sollen sie in
die Lage versetzt werden, Risiken besser zu erkennen, einzuschätzen und dadurch in konkreten Diskrimi-
nierungsfällen Betroffene besser unterstützen zu können. Darüber hinaus soll diese Publikation auch den
von Diskriminierung Betroffenen die Möglichkeit geben, sich über das Thema zu informieren.

Der Fokus liegt auf dem Zugang zu Gütern und privaten Dienstleistungen, beispielsweise Benachteiligun-
gen im Online-Handel oder beim Abschließen einer Versicherung. Nur am Rande gehen wir auf andere
Anwendungsbereiche des Allgemeinen Gleichbehandlungsgesetzes (AGG) ein.

Das Projekt wurde von der ADS gefördert und von AlgorithmWatch umgesetzt. Wir möchten uns an dieser
Stelle herzlich für die Förderung und Unterstützung bedanken sowie für die angenehme Zusammenarbeit
mit Nathalie Schlenzka, Niklas Hofmann und Gudula Fritz.

1	Im Rahmen des Projekts AutoCheck wurden 15 Mitarbeitende von Antidiskriminierungsstellen und Antidiskriminierungs­
   expert*innen interviewt. Themenschwerpunkte der Interviews waren: Vorwissen und Berührungspunkte mit automatisierten
   Entscheidungssystemen in der Beratung, Einschätzung der Relevanz des Themas im Antidiskriminierungskontext und alltägli-
   che Aufgaben und Themen in der Beratungsarbeit. Alle Zitate in dieser Publikation, sofern nicht anders gekennzeichnet, sind
   Äußerungen aus den Interviews.
2    Für diese Publikation relevante Begriffe finden Sie im Glossar ab S. 22.
3	Orwat, Carsten (2019). Diskriminierungsrisiken durch Verwendung von Algorithmen: eine Studie, erstellt mit einer Zuwen-
   dung der Antidiskriminierungsstelle des Bundes. Nomos.
4	Allen QC, Robin & Masters, Dee (2020). Regulating For An Equal AI: A New Role For Equality Bodies. An Equinet Publication.
   https://equineteurope.org/wp-content/uploads/2020/06/ai_report_digital.pdf (14.04.2022).

                                                                                                                      Seite 4
ADM-Systeme und Diskriminierung

1 Grundlagen und                                           einer Wohnungsbesichtigung eingeladen wird. Die

      zentrale Begriffe                                     Ausführung einer Entscheidung kann auch vollstän-
                                                            dig an ADM-Systeme delegiert werden, dann ist im
      „Ich hätte gerne eine grundlegende                    Anwendungsfall kein Mensch mehr beteiligt.
      Einführung, sodass man weiß, worüber
      man spricht.“ (Interviewpartner 13)                   ADM-Systeme basieren auf Algorithmen, einer
                                                            bestimmten Form der Handlungsanleitung, die
Vielleicht haben Sie sich beim Lesen des Titels „Auto-      zur Lösung eines mathematischen Problems führt.
matisierte Entscheidungssysteme und Diskriminie-            Algorithmen beschreiben „einen für den Computer
rung“ schon gefragt, was automatisierte Entschei-           korrekt interpretierbaren Lösungsweg, der für jede
dungssysteme eigentlich sind. Diesen und weitere            durch das mathematische Problem definierte mög-
zentrale Begriffe dieser Publikation werden wir in          liche Eingabe die korrekte Lösung in endlicher Zeit
diesem Kapitel definieren und in Zusammenhang               berechnet.“5
setzen. Weitere relevante Begriffe finden Sie im
­Glossar ab S. 22. Diese Begriffe sind im Text der Pub-     Wir möchten hier zwei Arten von Algorithmen
 likation Grau und unterstrichen.                           unterscheiden, die die Funktionsweise von ADM-
                                                            Systemen beeinflussen: regelbasierte und lernende
                                                            Algorithmen. Bei einem regelbasierten Algorithmus
  BEGRIFFSKLÄRUNG                                           sind die Handlungsanleitungen, die der Algorithmus
                                                            ausführt, explizit programmiert worden. Ein Beispiel
  Warum verwenden wir in dieser Publikation                 dafür sind Online-Formulare, die man oft nur dann
  den Begriff „automatisiertes Entscheidungs-               abschicken kann, wenn man sich einer der binären
  system“ statt von einer „Künstliche Intelligenz“          Geschlechterkategorien „männlich“ oder „weiblich“
  zu sprechen, die Entscheidungen über Men-                 zuordnet. Diese Bedingung für ein korrekt ausgefüll-
  schen trifft?                                             tes Formular ist von einem Menschen so program-
                                                            miert worden.
  Künstliche Intelligenz ist zu allererst ein For-
  schungsfeld der Informatik, das sich mit maschi-
                                                            Lernende Algorithmen sollen dagegen in einer vor-
  nellem Lernen und der Automatisierung kog-
                                                            gelagerten Phase Regeln aus bereits vorhandenen
  nitiver Aufgaben befasst. Darüber hinaus sug-
                                                            Daten lernen, die zu einem gewünschten Ergebnis
  geriert der Begriff die Nähe zu menschlicher
                                                            führen. Das können Menschen unterstützen, indem
  Intelligenz und damit auch zu so etwas wie Ver-
                                                            sie die für das Training zur Verfügung stehenden
  antwortung für Entscheidungen. Das ist irrefüh-
                                                            Daten annotieren, also zum Beispiel Daten, die das
  rend [siehe Kapitel Ursachen, S. 11]. Passender
                                                            gewünschte Ergebnis beinhalten, markieren. In der
  ist der Begriff „automati­siertes Entscheidungs­
                                                            nächsten Phase werden die erlernten Regeln auf
  system“, den wir stattdessen verwenden.
                                                            ähnliche, aber unbekannte Daten angewendet, um
                                                            ein richtiges Ergebnis zu erhalten. Das bedeutet,
Systeme zum automatisierten Entscheiden (englisch:          dass bereits vorhandene Daten hier einen großen
Automated Decision-Making, kurz: ADM) führen Ent-           Einfluss auf die gelernten Regeln und damit das
scheidungsmodelle oder ‑wege mithilfe von Algo-             Ergebnis haben.
rithmen aus. ADM-Systeme können Entscheidungen
unterstützen oder vorbereiten, indem sie Empfeh-            Gleich welche Art von Algorithmen sie verwenden,
lungen aussprechen oder Daten aufbereiten. Zum              der Kontext muss mitbetrachtet werden, um ADM-
Beispiel könnte ein ADM-System verwendet wer-               Systeme besser verstehen zu können. Deswegen
den, um aus einer großen Anzahl Bewerber*innen
für eine Wohnung, eine Liste mit Kandidat*innen zu
filtern, die bestimmten Kriterien entsprechen. Basie-       5	AlgorithmWatch (2016). 1. Arbeitspapier: Was ist ein
                                                               Algorithmus? https://algorithmwatch.org/de/arbeitspa-
rend auf dieser Liste entscheidet ein Mensch, wer zu           pier-was-ist-ein-algorithmus/ (28.02.2022).

                                                                                                             Seite 5
ADM-Systeme und Diskriminierung

ist es sinnvoll, sie als sozio-technische Systeme zu       könnten. Der Fokus liegt auf privaten Dienstleistun-
betrachten, das heißt neben den technischen auch           gen und dem Zugang zu Gütern in Deutschland. Wir
ihre sozialen Komponenten in die Untersuchung ein-         verwenden auch ein Beispiel aus Italien und Bei-
zubeziehen. ADM-Systeme entstehen aus einem spe-           spiele aus anderen Anwendungsbereichen, da es auf
zifischen historischen und gesellschaftlichen Kontext      die Logik ankommt, die hinter ADM-Systemen und
heraus, werden durch diesen beeinflusst und haben          ihrer Anwendung steckt. Diese Logik ist auf andere
wiederum Einfluss auf spezifische Gruppen und Indi-        Anwendungskontexte übertragbar.
viduen in dieser Gesellschaft und die gesellschaft-
liche Entwicklung insgesamt. Dieser Einfluss kann
auch negativ sein und zu Benachteiligung oder Dis-
kriminierung führen, wie die Fallbeispiele im folgen-
den Kapitel zeigen.
                                                           a) Nicht kreditwürdig aufgrund von
                                                           Alter und Geschlecht ?
2 Fallbeispiele
                                                           Der Kauf auf Rechnung wird verweigert,
      „Fallbeispiele sind immer super.                     mutmaßlich wegen einer für die Kredit­
      Man kann viel Theorie lesen, aber                    würdigkeit ungünstigen Kombination von
      man merkt sie sich erst an Beispielen.“              Alter und Geschlecht.6
      (Interviewpartnerin 06)
                                                           Im Jahr 2021 möchte eine Frau in Hessen in einem
In diesem Teil der Publikation finden Sie fünf Fall-       Online-Shop Kleidung kaufen. Als Zahlungsart gibt
beispiele von ungerechten oder diskriminierenden           sie „Kauf auf Rechnung“ an. Die damit verbundene
Ergebnissen durch die Anwendung von ADM-Sys-               Bonitätsprüfung, auch „Scoring“ genannt, führt dazu,
temen in Deutschland und Italien. Sie dienen als           dass ihr der Kauf auf Rechnung verwehrt wird. Die
Einstieg in das Thema und zur Veranschaulichung            Frau ist irritiert, sie übt einen guten Job aus, ist um
der Problematik. Sie sind nah am Beratungsalltag           die 40 Jahre alt und hat ihres Wissens nach keine
und sollen Hinweise darauf geben, bei welchen              negativen Einträge bei Auskunfteien.7 Sie fragt beim
Beratungsfällen ADM-Systeme eine Rolle spielen             Online-Händler nach. Dieser schickt ihr das Ergebnis
                                                           der Bonitätsprüfung der externen Auskunftei. Hier
                                         RECHN             schien ein automatisiertes System ausgewertet zu
                                              UNG
                                                           haben, dass Frauen um die 40 nicht kreditwürdig
                                                           genug sind. Diese Hintergründe zu der automatisier-
                                                           ten Entscheidung erfährt die Betroffene nur, als sie
                                                           auf Eigeninitiative beim externen Kreditprüfungs-
                                                           unternehmen anruft und ein Mitarbeiter Vermu-
                                                           tungen dazu äußert, warum sie abgelehnt wurde:

                                                           6	Das Fallbeispiel basiert auf einem Beratungsfall, der uns
                                                              in einem Interview mit der verantwortlichen Beraterin
                                                              einer Antidiskriminierungsstelle geschildert wurde. In
                                                              Finnland gab es einen ähnlichen Fall, der vom Nicht-Dis-
                                                              kriminierungs- und Gleichbehandlungstribunal rechts-
                                                              verbindlich entschieden wurde: https://algorithmwatch.
                                                              org/de/kreditscoring-urteil-aus-finnland-wirft-fragen-
                                                              zur-diskriminierung-auf/.
                                                           7	Die größten Auskunfteien in Deutschland sind Schufa
                                                              Holding AG (mit dem größten Marktanteil), Creditreform
                                                              Boniversum, Crif Bürgel und Infoscore Consumer Data.
                                                              Weiterführende Informationen zu Auskunfteien: https://
                                                              www.finanztip.de/schufa/auskunfteien/ (24.03.2022).

                                                                                                                Seite 6
ADM-Systeme und Diskriminierung

Weil „Frauen in ihrem Alter geschieden und damit
mittellos“ seien – es also am Zusammenhang zwi-
schen Alter und Geschlecht liege. Ein Testing- Ver-
fahren [S. 19, Testing-Verfahren] bietet sich an, ist
aber zu aufwendig. Auch für ein Klageverfahren
[S. 20, Klage­verfahren] nach AGG werden zu niedrige
Erfolgschancen im Verhältnis zu den Kosten gese-
hen.8 Erfreulicherweise führt die Beschwerde der
Frau zumindest dazu, dass der Online-Händler die
Auskunftei wechselt.

In diesem Fallbeispiel könnte zum Beispiel das ver-
wendete Modell die Ursache für das Ergebnis der
ungenügenden Kreditwürdigkeit sein.9 Dann wäre
hier die Annahme, dass Geschlecht und Alter Einfluss
auf die Zahlungsfähigkeit einer Person haben, in das
Modell eingegangen. Weitere Informationen finden
Sie im Kapitel Ursachen [S. 11].

b) Online-Formulare

Online-Formulare können aufgrund der                        Seite seinen Nachnamen nicht akzeptiert. Diese
Kürze des Nachnamens nicht ausgefüllt                       Erfahrung macht Herr Li nicht nur auf Bitcoin.de,
oder abgeschickt werden.10                                  sondern auch auf einigen anderen Webseiten, die
                                                            Online-Formulare verwenden. Immer wieder kann
2013 möchte Clemens Li auf der Webseite Bitcoin.de          er sich nicht anmelden oder etwas nicht kaufen,
die Kryptowährung Bitcoin kaufen. Das gelingt ihm           weil beim Ausfüllen des Namensfelds eine Feh-
jedoch nicht, weil das Online-Anmeldeformular der           lermeldung erscheint: Der Name „Li“ ist zu kurz.
                                                            Oft sind Formulare so programmiert, dass Namen
                                                            mindestens drei Buchstaben enthalten müssen,
8	Folgende Studie thematisiert u. a. Herausforderungen
                                                            damit sie akzeptiert und der Vorgang abgeschlos-
   für Klageverfahren beim Zugang zu Waren und Dienst-
   leistungen im Zusammenhang mit dem AGG: Beigang,         sen werden kann. Menschen mit weniger als drei
   Steffen et al. (2021). Möglichkeiten der Rechtsdurch-    Buchstaben im Namen scheinen bei der Program-
   setzung des Diskriminierungsschutzes bei der Begrün-
   dung, Durchführung und Beendigung zivilrechtlicher       mierung nicht mitgedacht worden zu sein. So auch
   Schuldverhältnisse: Bestandsaufnahme, Alternativen       im Falle von Bitcoin.de. Herr Li beschwert sich bei
   und Weiterentwicklung. Nomos. https://www.antidiskri-
                                                            den Betreibern der Webseite und bekommt sechs
   minierungsstelle.de/SharedDocs/downloads/DE/pub-
   likationen/Expertisen/rechtsdurchsetzung_zivilrecht.     Monate später eine Antwort vom Support per
   pdf?__blob=publicationFile&v=2 (03.03.2022).             E-Mail: Der Kundenbetreuer bittet ihn, für die Regis-
9	
  Die tatsächlichen Ursachen für das Ergebnis wissen        trierung einen Punkt an seinen Namen anzuhän-
  wir nicht, da wir keine Informationen von Seiten der
  Auskunftei zu dem Fall oder dem verwendeten Modell        gen, „da unser System zwingend drei Buchstaben
  haben.                                                    vorschreibt.“ Herr Li lehnt das ab und kann infolge
10	
   Lulamae, Josephine (2022). Name Zu Kurz, Registrie-      auf der Webseite keine Kryptowährung kaufen.
   rung Ausgeschlossen: Diskriminierende Online-Formu-
   lare. AlgorithmWatch: https://algorithmwatch.org/de/
   fehlerhafte-online-formulare/ (03.03.2022).

                                                                                                          Seite 7
ADM-Systeme und Diskriminierung

c) Fotoautomat Hamburg

Gesichtserkennungssoftware
erkennt das Gesicht einer
Schwarzen Frau nicht als Motiv.11

Audrey K. möchte 2020 beim Landes-
betrieb Verkehr in Hamburg einen
internationalen Führerschein bean-
tragen. Sie hat alle erforderlichen
Unterlagen für die Beantragung zu
ihrem Termin mitgebracht, abgese-
hen von einem biometrischen Foto,
das sie in dem Fotoautomaten im
Amt machen möchte. Um ein biometri-
sches Bild aufzunehmen, muss man sein
Gesicht in einen bestimmten Ausschnitt der
Kamera halten. Erst wenn das Gesicht im richti-
gen Ausschnitt erkannt wird, wird ein Foto gemacht.
Der Fotoautomat des Landesbetrieb Verkehr
erkennt das Gesicht von Audrey K. jedoch nicht als           sich darauf, dass die neuste Technologie verwendet
Motiv. Die Gesichtserkennungssoftware, die in die-           werde. Dass aber auch neueste Technologie rassis-
sem Fotoautomaten verwendet wird, erkennt offen-             tische und sexistische Ergebnisse liefern kann, zeigt
bar nur Gesichter mit hellen Hauttönen. Das Verhal-          die Studie der Forscherinnen Joy Buolamwini und
ten der Mitarbeiterin im Landesbetrieb Verkehr lässt         Timnit Gebru.12 Die Forscherinnen untersuchen in
Audrey K. darauf schließen, dass das Problem vor             dieser Studie die Genauigkeit von KI-Anwendungen
ihrem Besuch schon länger bestand und bekannt                zur Geschlechtsklassifizierung von Gesichtern, die
war. Sie erinnert sich daran, dass die Mitarbeiterin         zum Beispiel von Microsoft oder IBM angeboten wur-
gesagt habe, „es könnte ein Problem mit Ihrer Haut-          den. Sie kommen zu dem Ergebnis, dass die unter-
farbe geben.“ Der Fotoautomat gehört der Bun-                suchten KI-Anwendungen eine hohe Fehlerquote
desdruckerei. Dort sieht man das Problem nicht im            für Frauen mit dunkleren Hauttönen aufzeigen im
Softwaresystem, sondern meint, es läge an der Aus-           Vergleich zu Männern mit helleren Hauttönen. Als
leuchtung der Kabine. Die Bundesdruckerei beruft             einer der Gründe für dieses Ergebnis wird die feh-
                                                             lende Diversität in Daten benannt. Auch in diesem
                                                             Fallbeispiel von Audrey K. könnte die Ursache des
                                                             Problems an den Daten liegen, die für die Entwick-
11	
   Schipkowski, Katharina (2020). Rassismus im Bild:         lung der Software verwendet wurden.13
   Blind für schwarze Menschen. Taz.de: https://taz.de/
   Rassismus-im-Bild/!5700872/ (03.03.2022). Ähnliche
   Fälle: Achenbach, Cornelia (2019). Junge kann Foto-
   automaten im Osnabrücker Bürgeramt nicht nutzen.
                                                             12	
                                                                Buolamwini, Joy & Gebru, Timnit (2018). Gender Shades:
   Neue Osnabrücker Zeitung: https://www.noz.de/lokales/
                                                                Intersectional Accuracy Disparities in Commercial Gen-
   osnabrueck/artikel/-20523365 (03.03.2022). Karangwa,
                                                                der Classification. Proceeds of Machine Learning Research:
   Sandra (2015). Entlarvt: Schwarze zu dunkel für bio-
                                                                81, 1-15. http://gendershades.org/ (03.03.2022).
   metrische Passfotos. MiGAZIN.de: https://www.migazin.
   de/2015/07/13/schwarze-sind-zu-dunkel-fuer-das-biome-     13	Die tatsächlichen Ursachen für das Ergebnis wissen wir
   trische-passfoto/ (03.03.2022).                               nicht.

                                                                                                                  Seite 8
ADM-Systeme und Diskriminierung

                                                             und auf welchen Kriterien das basiert.15 Weil die
                                                             Algorithmen der Plattformen meist bestehende
                                                             Strukturen abbilden, kann bestehende Ungleichheit
                                                             reproduziert werden.
d) Genderstereotypes Anzeigen
von Stellenausschreibungen                                   In diesem Fallbeispiel könnte das Ziel der Anwen-
                                                             dung die Ursache dafür sein, dass Stellenanzeigen
Stellenanzeigen werden automatisiert                         nach Genderstereotypen verbreitet werden.16 Denn
genderstereotyp verbreitet.14                                das Ziel könnte hier sein, die Klicks auf Stellenan-
                                                             zeigen für Anzeigekunden zu maximieren. Weitere
Im Jahr 2020 schreibt AlgorithmWatch in einem                Informationen zu Ursachen von Diskriminierung
Versuch fiktive Stellen aus. Es handelt sich um Aus-         durch ADM-Systeme finden Sie im nächsten Kapitel
schreibungen für eine*n LKW-Fahrer*in und eine*n             [Ursachen, S. 11].
Erzieher*in. Die Stellenausschreibungen werden
auf der Plattform Facebook angezeigt und sind mit
Anzeigen auf einer Jobplattform verlinkt. Jobsu-                   „Die Algorithmen an sich sind nicht
chende können bei Facebook nach Jobs suchen und                    das Problem, sondern dass sie Diskri­
werden dann zu den Anzeigen auf der verlinkten Job-                minierung und strukturelle Ungleich­
plattform weitergeleitet. Es ist bei Plattformen wie               heit verdecken. Bei Diskriminierung
Facebook möglich, bei der Veröffentlichung einer                   kommt es nicht auf die Absicht an,
Anzeige eine bestimmte Zielgruppe auszuwählen,                     sondern auf die Wirkung. Diskrimi­
die man bevorzugt erreichen möchte. Diesen Vor-                    nierung ist in die Struktur und auch
gang nennt man „Targeting“. Im Versuch wird dar-                   in uns eingeschrieben: Wir haben das
auf bewusst verzichtet. Sobald die Anzeigen veröf-                 alle gelernt.“ (Interviewpartner*in 04)
fentlicht sind, werden sie vor allem den Menschen
angezeigt, die, basierend auf einer Berechnung
durch einen Algorithmus, am wahrscheinlichs-
ten die Anzeigen anklicken. Die Ausschreibung               X-GMBH                NEUIGKEITEN   SERVICE   ÜBER UNS   KONTAKT

für eine*n LKW-Fahrer*in wird 4.864 Männern
gezeigt, aber nur 386 Frauen. Die Anzeige für
eine*n Erzieher*in, die genau zur selben Zeit
geschaltet wurde, erreicht 6.456 Frauen, aber
nur 258 Männer. Das bedeutet: Facebook führt
beim Veröffentlichen der Anzeigen ein Targeting
durch, ohne eine Erlaubnis dafür einzuholen oder
darüber zu informieren. Diese Form von Targe-
ting ist übertragbar auf andere Anzeigen, etwa
Wohnungsanzeigen. Die besondere Pro-
blematik in diesem und ähnlichen Fällen:

Betroffene Personen wissen nicht, dass ihnen etwas
                                                             15	
                                                                Eine Einschätzung zur Rechtsdurchsetzung dieses Bei-
anderes angezeigt wird als anderen Nutzer*innen                 spiels: Fröhlich, Wiebke (2020). Männer fahren LKW,
                                                                Frauen erziehen Kinder – Diskriminierendes Gendertar-
                                                                geting durch Facebook. Verfassungsblog: https://verfas-
                                                                sungsblog.de/diskriminierende-facebook-algorithmen/
14	
   Kayser-Bril, Nicolas (2020). Automatisierte Diskrimi-
                                                                (03.03.2022).
   nierung: Facebook verwendet grobe Stereotypen, um
   die Anzeigenschaltung zu optimieren. AlgorithmWatch:      16	Die tatsächlichen Ursachen für das Ergebnis wissen wir
   https://algorithmwatch.org/de/automatisierte-diskrim-         nicht, da wir von Facebook keine Informationen erhalten
   inierung-facebook-verwendet-grobe-stereotypen-um-             haben, z. B. welche Ziele, Modelle oder Daten verwendet
   die-anzeigenschaltung-zu-optimieren/ (03.03.2022).            wurden.

                                                                                                                       Seite 9
ADM-Systeme und Diskriminierung

                                                               Versicherungen mit der Abfrage der Steuernummer
                                                               schon über die Information verfügen, dass er sowohl
                                                               eine nigerianische als auch eine italienische Staats-
                                                               bürgerschaft besitzt. Um potenzielle Benachteiligung
                                                                        offenzulegen, führen die Universitäten
                                                                           Padua, Udine und Carnegie Mellon eine
                                                                             Studie mithilfe von Vergleichsportalen
                                                                                 und fiktiven Profilen durch. Die
                                                                                  Erfahrung von Udo Enwerene-
                                                                                   zor bestätigt sich: Abhängig vom
                                                                                    Geburtstort und der Staatsbür-
                                                                                    gerschaft oder beidem variieren
                                                                                    die Preise für KfZ-Versicherun-
                                                                                   gen zum Teil stark.18 Die Studie
                                                                               zeigt, dass eine Person, die in Ghana
                                                                           geboren wurde, unter Umständen über
                                                               1.000 Euro mehr zahlen muss als eine in Mailand
                                                               geborene Person mit einem ansonsten identischen
                                                               Profil.

                                                                          KFZ-VERSICHERUNG

e) Preise für Autoversicherungen
werden beeinflusst durch die                                              Name:                      KFZ-VERSICHERUNG
Nationalität der Kund*innen                                               Udo Enwerenezor

                                                                          Steuernummer:
                                                                          123 / 456 /585842
Kfz-Versicherungstarife werden durch die                                  Geburtsort:
Staatsbürgerschaft beeinflusst.17                                         Genua
                                                                                                     Name:
                                                                          Geburtsland:               Udo Enwerenezor
                                                                          Italien
Udo Enwerenezor lebt in Italien und hat eine dop-                                                    Steuernummer:
                                                                                                     123 / 456 /585842
pelte Staatsbürgerschaft: sowohl die Italienische                                                    Geburtsort:
als auch die nigerianische. Seine Erfahrung aus                                                      Accra

der Vergangenheit ist, dass die Preise für eine Kfz-                                                 Geburtsland:
                                                                                                     Ghana
Versicherung sich unterscheiden je nachdem, wel-
che der Staatsbürgerschaften er angibt. Gibt er an,
nigerianischer Staatsbürger zu sein, liegt der Preis
höher. Seit die Kfz-Versicherung nicht mehr telefo-
nisch abgeschlossen wird, sondern ausschließlich
online, kann er nicht mehr nachprüfen, ob seine
Staatsbürgerschaften sich unterschiedlich auf den
Preis auswirken würden. Das liegt daran, dass die
                                                               18	Fabris, Alessandro et al. (2021). Algorithmic Audit of Ita-
17	
   Boscarol, Francesco (2022). Costly Birthplace: discrimi-        lian Car Insurance: Evidence of Unfairness in Access and
   nating insurance practice. AlgorithmWatch: https://             Pricing. In Proceedings of the 2021 AAAI/ACM Conference on
   algorithmwatch.org/en/discriminating-insurance/                 AI, Ethics, and Society (pp. 458-468). http://www.dei.unipd.
   (03.03.2022).                                                   it/~silvello/papers/2021_aies2021.pdf (03.03.2022).

                                                                                                                         Seite 10
ADM-Systeme und Diskriminierung

3 Ursachen                                                           „Dann die Frage: Wer hat das
                                                                     programmiert? Menschen, die keine
     „Alles was programmiert wird, ist nur                           Diskriminierungserfahrungen machen,
     so gut wie die Menschen, die es pro­                            sich damit nicht auseinandersetzen
     grammieren.“ (Interviewpartner*in 07)                           und nicht sensibel dafür sind?“
                                                                     (Interviewpartner*in 07)
Die Verwendung von ADM-Systemen kann zu unge-
rechten, sogar zu diskriminierenden Ergebnissen                Die folgenden Schaubilder in diesem Kapitel zeigen
führen, die weitreichende, negative Effekte auf das            auf, an welchen Stellen Menschen Entscheidungen
Leben von Menschen haben können. ADM-Systeme                   treffen, wie sie ihre Annahmen und Perspektiven
sind weder neutral noch objektiv. Sie müssen als               dadurch einbringen und welche Fragen wir zu den
sozio-technische Systeme verstanden werden – das               ADM-Systemen stellen sollten.
heißt als Systeme, die in einem spezifischen gesell-
schaftlichen Kontext entstehen und von den darin
herrschenden Vorstellungen und Verhältnissen                   Daten
beeinflusst sind.
                                                               Die Realität lässt sich über Daten nie eins zu eins
     „Automatisierte Entscheidungssysteme                      darstellen. Daten sind nicht neutral und spiegeln
     werden von Menschen gemacht,                              (Macht-)Verhältnisse der Gesellschaft wider. Men-
     die den gleichen Wahrnehmungen                            schen entscheiden, welche Daten wann und wie
     unterliegen, denen sie auch im Alltag                     erhoben werden. Daten unterscheiden sich in ihrer
     unterliegen.“ (Interviewpartnerin 11)                     Qualität zum Beispiel darin, ob sie aktuell oder ver-
                                                               altet sind und welche Gruppen in ihnen über- oder
Unbewusste Vorurteile, strukturelle Ungleichheit               unterrepräsentiert werden. Daten sind in der Ver-
und Diskriminierung, die in Gesellschaften verbrei-            gangenheit erfasst worden und spiegeln diese wider.
tet sind, finden sich auch hier wieder. Denn sozio-            Werden sie benutzt, um zum Beispiel die Zukunft
technische Systeme spiegeln Annahmen, Werte, Per-              vorherzusagen, beruht dies auf der Annahme, dass
spektiven und Voreingenommenheit der Menschen,                 die Zukunft der Vergangenheit gleicht oder ähnelt.
die sie entwickeln und anwenden. Das liegt daran,              Vor allem bei lernenden Algorithmen beeinflussen
dass Menschen an verschiedenen Punkten in der                  die verwendeten Daten die Funktionsweise der ADM-
Entwicklung und Anwendung dieser Systeme Ent-                  Systeme stark. Menschen bereinigen und annotieren
scheidungen treffen – im schlimmsten Fall kommt                Daten, damit sie für lernende Algorithmen verwend-
es so zu unerwünschter Diskriminierung. Wie falsche            bar sind.
Vorstellungen und Voreingenommenheit die Funkti-
onsweise von ADM-Systemen negativ beeinflussen                 Die verwendeten Daten könnten zum Beispiel der
können, erklären wir in den folgenden Abschnitten.             Grund dafür gewesen sein, dass das Gesicht von

 DATEN
                                                                                Sind die Daten aktuell und
                                                                               ausreichend? Wer prüft das?
             Sind die Daten repräsentativ für die
              Gruppen, auf die das ADM-System
                  einen Effekt haben wird?
                                                                              Welche Fragen können mit den
                                                                               Daten beantwortet werden?

   Wer wählt die Daten aus und warum wählt die
    Person diese Daten (z. B. Qualität der Daten,                             Wer hat die Daten a
                                                                                                ­ nnotiert
            Verfügbarkeit oder Kosten)?                                       und nach w
                                                                                       ­ elchen Kriterien?

                                                                                                             Seite 11
ADM-Systeme und Diskriminierung

Audrey K. [Fallbeispiel c), S. 8] von der Gesichtser-     für Anzeigenkunden zu maximieren. Basierend auf
kennungssoftware des Fotoautomaten nicht erkannt          historischen Daten könnte die Wahrscheinlichkeit
wurde und sie deshalb kein biometrisches Foto             berechnet worden sein, dass Nutzerinnen eher auf
machen konnte. Wenn der verwendete Algorithmus            eine Stellenanzeige „Erzieher*in“ klicken, während
in der Phase des Lernens überwiegend mit Bildern          sich Nutzer eher für „LKW-Fahrer*in“ interessieren.
von Gesichtern mit hellen Hauttönen trainiert wurde,      Hätte Facebook zum Beispiel die Förderung von
diese also überrepräsentiert waren und damit              Geschlechtergerechtigkeit in der Gesellschaft als Ziel
Gesichter mit dunklen Hauttönen unterrepräsen-            definiert, wäre die Anzeigenverteilung womöglich
tiert, funktioniert das ADM-System schlechter oder        anders ausgefallen.
gar nicht für die unterrepräsentierte Gruppe.

                                                          Modell
Ziel
                                                          Ein Modell beschreibt einen Ausschnitt der Wirk-
Menschen entscheiden nicht nur über die verwen-           lichkeit; die Realität in ihrer Komplexität wird redu-
deten Daten, sie entscheiden auch über das Ziel der       ziert. Eine Situation wird so vereinfacht, dass sie in
Verwendung eines ADM-Systems. Zunächst wird ein           ein mathematisches Problem übersetzt werden
Problem identifiziert, das gelöst werden soll. Das        kann. Menschen entscheiden, welche Kriterien und
kann zum Beispiel die Aufgabe sein, eine geeignete        Aspekte relevant für ein Problem sind, das mithilfe
Person aus einem Bewerbungspool auszuwählen.              des Modells gelöst werden soll – beispielsweise
Die Lösung könnte in einem von Menschen durchge-          durch Anwendung eines Algorithmus. Wenn zum
führten Recruiting-Prozess bestehen. Es kann jedoch       Beispiel geeignete Bewerber*innen automatisiert
auch entschieden werden, dass ein ADM-System              anhand ihrer Lebensläufe ausgewählt werden sollen
für die Lösung des Problems geeignet scheint. Des         und definiert wird, was „geeignet“ bedeutet, müssen
Weiteren wird entschieden, welche Ziele das System        die Kriterien festgelegt werden, an denen sich „geeig-
verfolgen soll. Ziele können zum Beispiel Kostensen-      net“ festmachen lässt. Solche Kriterien könnten sein:
kung und Effizienzsteigerung sein. Ein Ziel kann aber     Berufserfahrung, höchster Abschluss, Sprachkennt-
auch sein, den Einfluss von Voreingenommenheit            nisse usw. Dahinter steckt dann zum Beispiel die
auf Entscheidungsprozesse zu reduzieren und Dis-          Annahme, dass eine Person mit mehreren Jahren
kriminierung zu vermeiden.                                Berufserfahrung besser für eine bestimmte Stelle
                                                          geeignet ist als eine Person mit wenig Berufserfah-
Im [Fallbeispiel d), S. 9], zeigt Facebook Stellenan-     rung. Diese Annahme könnte jedoch auch infrage
zeigen genderstereotyp den Nutzer*innen an. Das           gestellt werden, wenn bessere Kriterien für eine Eig-
Ziel könnte hier sein, die Klicks auf Stellenanzeigen     nung bestehen.

                 Welcher Zweck soll
                                                            Welche (kritischen) Fragen werden gestellt?
 ZIEL             durch den Einsatz
                                                            Welche Alternativen in Betracht gezogen?
                 eines ADM-Systems
                   erfüllt werden?

                                                                                       Wer definiert das Ziel des Ein-
                                                                                       satzes, das Problem und die
  Welche Annahmen                                                                       Lösung? Welche Annahmen
  über ADM-Systeme                                                                          hat diese Person?
  stecken hinter der
  Einschätzung, dass
 dies die beste Lösung
                                                                          Welche Perspektiven auf die Gesell-
 für das identifizierte
                                                                          schaft hat die Entscheidungsperson?
      Problem ist?

                                                                                                          Seite 12
ADM-Systeme und Diskriminierung

 MODELL                                                                              Welchen Ausschnitt der Realität
                                                                                      bildet das Modell ab? Ist die
                                                                                      Vereinfachung dem Problem
 Auf welchen Annahmen über                                                                    angemessen?
 das Problem, die Realität oder
  das Ziel basiert das Modell?

                                                                                Ist das Modell geprüft worden?
           Wer übersetzt das Problem in ein                                    Nach welchen Qualitätsstandards?
           Modell und wie wird es übersetzt?                                    Unternehmensintern oder von
                                                                                      unabhängier Stelle?

Bei Scoring-Verfahren der Auskunfteien werden Indi-           und lernen, wie diese Systeme funktionieren, damit
viduen einer Vergleichsgruppe mit ähnlichen Merk-             sie die Empfehlungen angemessen hinterfragen kön-
malen zugeordnet. So kann basierend auf der Zah-              nen.
lungsmoral der Vergleichsgruppe berechnet werden,
mit welcher Wahrscheinlichkeit eine Person eine               Abschließend wollen wir noch darauf hinweisen,
Rechnung zahlen wird. Im Fallbeispiel a) [S. 6] könnte        dass selbst ein auf Diskriminierung und Voreinge-
das Modell die Ursache für das Ergebnis der ungenü-           nommenheit geprüftes System diskriminierend
genden Kreditwürdigkeit sein.19 Dann wäre hier die            eingesetzt werden kann. Wenn zum Beispiel eine
Annahme, dass Geschlecht und Alter einen Einfluss             Gesichtserkennungssoftware entwickelt wird, die für
auf die Zahlungsfähigkeit einer Person haben, in das          alle Menschen sehr gut funktioniert, diese jedoch vor
Modell eingegangen.                                           allem benutzt wird, um Schwarze Menschen gezielt
                                                              zu kontrollieren, dann ist die Anwendung des ADM-
                                                              Systems rassistisch.
Anwendung
                                                               ANWENDUNG                              Welche Kom-
Die Entscheidung, ein ADM-System für eine Aufgabe                                                     petenzen und
einzusetzen, basiert auf Annahmen über die Möglich-                                                    welches Wis-
                                                                 Wer wendet das ADM-System            sen haben die
keiten und Fähigkeiten dieser Systeme. Menschen                        an und wofür?                 Anwendenden?
tendieren dazu, ADM-Systeme zu überschätzen und
sich auf Empfehlungen durch ADM-Systeme zu ver-
                                                                 Sind Anwendende geschult, das         Haben Anwendende
lassen. Diese Tendenz wird in der englischsprachigen
                                                                System anzuwenden? Kennen sie            die Möglichkeit
Fachliteratur „Automation Bias“ genannt.20 Sie wird             die Möglichkeiten und Grenzen?          oder Freiheit, sich
umso stärker, je mehr Zeitdruck Anwendende haben
                                                                                                       anders zu entschei-
oder je mehr negative Konsequenzen sie fürchten                                                        den als vom System
müssen, wenn sie der Empfehlung des ADM-Systems                                                            empfohlen?
widersprechen oder nicht folgen. Deswegen ist es
sehr wichtig, dass Anwendende geschult werden
                                                                                               Falls formal möglich: Ist
                                                                                              dies im Arbeitsalltag rea-
19	
   Da wir keine Informationen von Seiten der Auskunftei zu                                     listisch z. B. angesichts
   dem Fall oder dem verwendeten Modell haben, kennen                                         knapper Zeit-oder Perso-
   wir die tatsächlichen Ursachen für das Ergebnis nicht.
                                                                                               nalressourcen? Welche
20	
   Automation Bias untersucht beispielsweise Cummings,                                         Konsequenzen ergeben
   Mary (2004). Automation Bias in Time Critical Deci-                                          sich bei einem Wider-
   sion Support Systems. AIAA 1 st Intelligent Systems­
                                                                                              spruch für Anwendende?
   Technical Conference. https://web.archive.org/web/
   20141101113133/http://web.mit.edu/aeroastro/labs/halab/
   papers/CummingsAIAAbias.pdf (14.04.2022).

                                                                                                              Seite 13
ADM-Systeme und Diskriminierung

   4 Anwendungsfelder21                                                   Fokus liegt auf privaten Dienstleistungen und dem
                                                                          Zugang zu Gütern, Bereiche darüber hinaus werden
         „Wir wissen ja oft nicht, wo ein                                 nur grob dargestellt. Es ist schwierig, mit Sicherheit
         Algorithmus dahinterstecken kann und                             zu sagen, wo ADM-Systeme derzeit in Deutschland
         wo nicht.“ (Interviewpartnerin 07)                               tatsächlich eingesetzt werden, denn es fehlen Trans-
                                                                          parenzpflichten und Auskunftsrechte – weder muss
   In diesem Schaubild sind Bereiche dargestellt, in                      angegeben werden, dass ein ADM-System zur Unter-
   denen ADM-Systeme angewendet werden können                             stützung angewendet wird, noch auf welchen Annah-
   und Beispiele für deren Anwendung. Hier wird aus                       men und Daten dieses System basiert. Ein Hinweis
   Gründen der Übersichtlichkeit nicht darauf einge-                      darauf, dass automatisierte Systeme angewendet
   gangen, wie die abgebildeten ADM-Systeme zu dis-                       werden, ist zum Beispiel, dass schon lange statis-
   kriminierenden Ergebnissen führen können. Das                          tische Berechnungen durchgeführt werden oder
   Schaubild soll in Beratungsfällen herangezogen wer-                    Datensätze vorhanden sind, wie bei Versicherun-
   den und helfen, einen begründeten Verdacht für die                     gen oder Bonitätsprüfungen. Oft soll mithilfe auto-
   Verwendung von ADM-Systemen zu entwickeln. Der                         matisierter Entscheidungssysteme etwas sortiert,
                                                                          kategorisiert, vorhergesagt oder effizienter gemacht
   21   Bitte beachten: Dieses Kapitel ist als Doppelseite gestaltet.     ­werden.

        Angebotene Zah-                      Versicherungssektor                     Finanzsektor                   Online-Handel
        lungsmöglichkeiten:
Zahlungsmöglichkeiten könn-              VV Online-Formulare und              VV Online-Formulare und        VV Online-Formulare und
ten sich aufgrund der ange­                 Kundenkonten                         Kundenkonten                   Kundenkonten
gebenen Wohnadresse                      VV Chatbot-Interaktionen             VV Chatbot-Interaktionen       VV Chatbot-Interaktionen
verändern – bei einer Adresse            VV Gruppenspezifische Ver-           VV Kreditvergabe: Bonitäts-    VV Gruppenspezifische
wird die Option „Kauf auf                   sicherungstarife (Studie-            prüfung                        Preise, z. B. Studierende,
Rechnung“ angezeigt, bei                    rende, Senior*innen)              VV Automatisierte Überprü-        Senior*innen)
einer anderen Adresse nicht.             VV Verhaltensbasierte Versi-            fung eingereichter Unter-   VV Prämien basierend auf
                                            cherungstarife (z. B. Tele-          lagen                          Kundenprofilen
                                            matik)                            VV Online abgeschlossene       VV Preisdifferenzierung basie-
                                         VV Automatisierte Überprü-              Finanzprodukte, z. B.          rend auf Uhrzeit oder Ort
                                            fung eingereichter Unter-            Girokonto, Kreditkarte,        des Kaufs
                                            lagen                                Depot, Online-Kredit        VV Datenbasierte, gezielte
                                         VV Dauerschuldverhältnisse:          VV Online-Banken und Fin-         Werbung (z. B. basierend
                                            Bonitätsprüfung                      Techs                          auf vorherigem Suchver-
       Kundenkonten:
                                         VV Online abgeschlossene                                               lauf)
       Beim Erstellen eines
                                            Versicherungen, z. B. Rei-                                       VV Dauerschuldverhältnisse
Kundenkontos teilen ­
                                            serücktritts-, Haftplicht-,                                         bei Mobilfunk-, Internet-
Kund*innen persönliche
                                            Kfz-, Rechtschutzversiche-                                          verträgen, Abonnements
Informationen, wie Geburts-
                                            rung                                                                (z. B. Spotify, Netflix): Boni-
datum, Geschlecht oder
                                         VV Automatisierte Abwick-                                              tätsprüfung
Staatsbürgerschaft. Diese
Informationen könnten von                   lung von Schadens-                                               VV Angebotene Zahlungs-
einem ADM-System verar-                     meldungen („digitale*r                                              möglichkeiten, z. B. basie-
beitet werden.                              Sachbearbeiter*in“)                                                 rend auf Adresse
                                                                                                             VV Ratenzahlung oder Zah-
                                                                                                                lung auf Rechnung: Boni-
                                                                                                                tätsprüfung
ADM-Systeme und Diskriminierung

                          Chatbot-Interaktionen: Über                                 Vergabe von Kitaplätzen:
                          ein Dialogfenster können Fragen                             Basierend auf vorab definier-
                an den Chatbot gestellt werden, die auto-                             ten Vergabekriterien könnte
                matisiert beantwortet werden. Teilweise                     ein ADM-System empfehlen, welche
                können Chatbots durch Anwendungen                           ­Kinder in welcher Kita einen Platz
                maschinellen Lernens aus Eingaben lernen                     bekommen sollten.
                und verändern ihre Antworten mit der Zeit.

                          Bewerbungsverfahren: ­Eine                            Mustererkennung: Ein ADM-System
                          Spracherkennungssoftware                              könnte zur Muster­erkennung eingesetzt
                          könnte eingesetzt werden, um                          wer­den, mit dem Ziel durch Bildanalyse
                anhand von Stimmproben Rückschlüsse                         Melanome ­früh­zeitig anhand von Bildern der
                auf die sprechende Person zu ziehen.                        Haut von Menschen zu erkennen.

   Wohnungssektor                   Gesundheitssektor                 Bildungssektor                       Arbeitsmarkt

VV Online-Formulare und          VV Private Krankenversiche-      VV Automatisierte Kitaplatz-    VV Bewerbungsverfahren
   Kundenkonten                     rung und Zusatzversiche-         vergabe                         (z. B. Sprachanalyse, Video-
VV Chatbot-Interaktionen            rungen, z. B. Zahn- oder      VV Automatisierte Auswahl          analyse)
VV Mietverhältnis: Bonitäts-        Krankenhauszusatzversi-          der Bewerbungen für          VV Automatisierte Auswahl der
   prüfung                          cherung (siehe Versiche-         ­private Schulen, Hoch-         Bewerbungen anhand von
                                    rungssektor)                      schulen, Universitäten         Noten, Lebenslauf usw.
VV Vorsortierung Woh-
   nungsbewerbungen ­            VV Online-Terminvergabe,                                         VV Stellenausschreibungen
   (bei großer Anzahl an            z. B. für Covid-Impfungen                                        über Online-Portale
   Mietwohnungen oder            VV Prävention und Diagnos­                                       VV Automatisierte Platzierung
   Bewerbungen)                     tik: Mithilfe von Musterer-                                   VV People Analytics, z. B. Leis-
VV Wohnungsanzeigen auf             kennung sollen Erkran-                                           tungsevaluation, Personal-
   Online-Plattformen:              kungen frühzeitig erkannt                                        entwicklung, Berechnen der
   Wem werden welche                werden.                                                          Wechselbereitschaft)
   Inserate angezeigt?

                       Gruppenspezifische Versicherungs­                             Zahnzusatzversicherung:
                       tarife und ­Formulare: Basierend auf                          Angaben aus Online-Formularen
                persönlichen Angaben, wie Geburtsdatum oder                          oder dem Kundekonto könnten ver-
                Beschäftigungsverhältnis, könnten automatisiert              wendet werden, um automatisiert einen
                unterschiedliche Tarife berechnet werden.                    ­Versicherungstarif zu berechnen.

                                                                                                                       Seite 15
ADM-Systeme und Diskriminierung

                                                                       VV Wohnungssuche über Online-Woh-
                                                                          nungsportale

                                                                       VV Online abgeschlossene Verträge wie
                                                                          Versicherungsverträge

                                                                       VV Interaktion mit einem Chatbot, z. B.
                                                                          im Online-Handel

                                                                       VV ABER: Bonitätsprüfung bei der Kre-
                                                                          ditvergabe oder Video-/Sprachauf-
                                                                          nahmen bei Bewerbungsverfahren
                                                                          sind ebenfalls Beispiele, in denen
                                                                          ADM-Systeme zum Einsatz kommen
                                                                          können, auch wenn Interaktionen
                                                                          nicht online stattgefunden haben.
5 Erkennen
                                                          Wurde ein Online-Formular
     „Wie lerne ich zu erkennen, ob mögli­                ausgefüllt oder über eine Online-
     cherweise verborgene digitale Prozesse               Maske (Kontaktformular, Chatbot
     dahinterliegen?“ (Interviewpartner 10)               etc.) interagiert?
Der folgende Fragenkatalog soll helfen, in den Fall-      ——    Beispiele hierfür sind: Das Eröffnen eines De-
beschreibungen von Ratsuchenden oder Betroffe-                  pots mithilfe eines Online-Kontos oder das
nen Hinweise auf ADM-Systeme zu erkennen und bei                Abschließen einer Reiseversicherung über eine
Verdacht passende Rückfragen zu stellen. Dafür sind             Webseite .
keine technischen Vorkenntnisse erforderlich.
                                                          ——    Wurden persönliche Angaben gemacht oder
Wo fand die Interaktion statt?                                  personenbezogene Daten geteilt? Falls ja, wel-
                                                                che? (Solche Daten können auch in Online-
——   Wenn die Interaktion online stattfand, kann                Konten gespeichert sein.)
     das ein Hinweis auf den Einsatz von automa-
     tisierten Systemen sein. Beispiele für solche        ——    Wurden Fragen nach Merkmalen gestellt, die
     Online-Interaktionen:                                      durch das AGG geschützt sind (unmittelbare

  PROXY-VARIABLEN
  Proxy-Variablen werden stellvertretend für andere Variablen eingesetzt, zum Beispiel wenn diese nicht direkt
  beobacht- oder messbar sind. Das englische Wort „proxy“ bedeutet „Stellvertreter*in“. Mit Proxy-Variablen
  kann auf bestimmte – auch geschützte – Merkmale geschlossen werden, ohne dass sie direkt abgefragt
  oder erfasst werden. Aus der Angabe „30 Jahre Arbeitserfahrung“ lässt sich beispielsweise ablesen, dass die
  Person mindestens Mitte 40 sein muss. So können Proxy-Variablen einen entscheidenden Einfluss auf die
  Entscheidungen eines ADM-Systems haben. (Hier finden Sie ein Erklärvideo zu Proxy-Variablen).

        „Ein wichtiger Punkt: Oft wird davon ausgegangen, dass es nicht zu einer
        Diskriminierung kommt, wenn keine personenbezogenen Daten verwendet werden.
        Das stimmt so nicht.“ (Interviewpartnerin 02)

                                                                                                        Seite 16
ADM-Systeme und Diskriminierung

     Diskriminierung)? Wurde nach Angaben ge-            ——    Auch bei der Teilnahme an Lastschriftverfah-
     fragt, die als Proxy-Variablen wirken könnten             ren kann eine Bonitätsprüfung erfolgen.
     (mittelbare Diskriminierung)?
                                                         Einer Bonitätsprüfung muss in der Regel explizit
——   Wurden Dokumente hochgeladen? Falls ja,             zugestimmt werden. Diese Zustimmung wird meist
     welche? Beinhalteten diese Hinweise auf oder        im Rahmen der Zustimmung zum Kauf oder der Zah-
     Informationen zu geschützten Merkmalen?             lung eingeholt. Die Information dazu kann in den
                                                         Vertragsunterlagen, den Allgemeinen Geschäftsbe-
Wie sah die Rückmeldung der                              dingungen (AGB) oder ähnlichen Dokumenten ste-
Firma oder Organisation auf die                          hen.
Interaktion aus?
                                                         Wurde der automatisierten
——   Wie schnell kam die Rückmeldung? Folgende           Verarbeitung von Daten explizit
     Hinweise deuten auf ADM-Systeme:                    zugestimmt?
     VV Fällt sofort beim Eingeben von Daten in          ——    Damit vollautomatisch entschieden werden
        ein Online-Formular eine Entscheidung                  darf, muss die betroffene Person nach Arti-
        oder wird sie unmittelbar im Anschluss per             kel 22 des europäischen Datenschutzgesetzes
        E-Mail mitgeteilt?                                     (DSGVO) oder Paragraf 31 des Bundesdaten-
     VV Wurden viele Dokumente hochgeladen und                 schutzgesetzes (BDSG) explizit zustimmen. Die
        die Rückmeldung kam dennoch sehr schnell?              Information dazu kann in den Vertragsunterla-
                                                               gen, den AGB, der Datenschutzvereinbarung
——   Kommen in der Rückmeldung bestimmte Be-                   oder ähnlichen Dokumenten stehen. Schauen
     griffe oder Phrasen vor, die auf eine automati-           Sie auch nach Wörtern und Phrasen wie: „au-
     sierte Entscheidung hindeuten?                            tomatisiert“, „maschinell“, „computergestützt“,
                                                               „automatisch“, „mithilfe von Algorithmen“.
     VV Eine gängige Phrase ist zum Beispiel: „Die-
        ses Schreiben wurde maschinell erstellt          ——    Ein Beispiel aus der Datenschutzerklärung ei-
        und ist ohne Unterschrift gültig.“                     ner Online-Buchhandlung:
     VV Häufige Begriffe sind: „automatisiert“,
        „maschinell“, „computergestützt“, „automa-             VV „Auf Basis dieser Daten berechnet unser
        tisch“, „elektronisch“.                                   Dienstleister anhand mathematisch-statis-
                                                                  tischer Verfahren Wahrscheinlichkeitswerte
Falls online etwas gekauft wurde,                                 zur Beurteilung des Zahlungsausfallrisikos
welche Zahlungsmöglichkeiten gab                                  und zur Verifizierung Ihrer Adresse (Prü-
es und welche wurde ausgewählt?                                   fung auf Zustellbarkeit).“

——   Bei den Optionen „Ratenzahlung“ oder „Bezah-
     lung auf Rechnung“ ist es wahrscheinlich, dass            Ich würde vermuten, dass Diskrimi­
     eine Bonitätsprüfung vorgenommen wird.                    nierungsrisiken durch automatisierte
                                                               Entscheidungssysteme sehr, sehr
——   Handelt es sich um ein Dauerschuldverhältnis,             große Relevanz haben, aber nicht bei
     wie Miete, Telekommunikationsvertrag, Abon-               uns in der Beratung ankommen oder
     nements bei Netflix oder Spotify usw.? Auch               ich sie als Beraterin nicht erkenne.“
     hier ist es möglich, dass eine Bonitätsprüfung            ­(Interviewpartnerin 00)
     vorgenommen wird.

                                                                                                      Seite 17
ADM-Systeme und Diskriminierung

6 Umgang                                                        Wie lässt sich ein Verdacht auf negative
                                                                Auswirkungen eines ADM-Systems in
      „Was mache ich denn dann, wenn                            gängige Vorgehensweisen und Interven-
      ich Automatisierung vermute? Ist                          tionen der Antidiskriminierungsberatung
      das ein Indiz für Diskriminierung?                        integrieren?
      Das ist natürlich eine große Frage.“
      (Interviewpartnerin 00)
                                                                Kontaktaufnahme, Stellungnahme,
Wenn Sie im Rahmen eines Beratungsfalls vermuten,               Beschwerdeschreiben
dass ein automatisiertes Entscheidungssystem ver-
wendet wurde, ist die naheliegende Frage: Welche                Eine Kontaktaufnahme mit einer verantwortlichen
Konsequenzen hat das für den weiteren Beratungs-                Person, Organisation oder Stelle, in Form einer Bitte
prozess? In diesem Teil der Publikation beschreiben             um Stellungnahme (etwa mit dem Ziel der Einigung)
wir Ideen für den Umgang mit einem solchen Ver-                 oder ein Beschwerdeschreiben bieten sich an, wenn
dacht, anknüpfend an gängige Interventionen der                 dies im Sinne der ratsuchenden Person ist.
Antidiskriminierungsberatung. Wie in allen anderen
Beratungsfällen geht es zunächst darum, herauszu-               Besteht in einem konkreten Fall ein Verdacht, dass
finden und umzusetzen, was die ratsuchende Person               ein Algorithmus oder ADM-System zu der diskrimi-
möchte.24 Darüber hinaus sollten Sie sinnvollerweise            nierenden oder ungerechten Entscheidung beige-
einen Hinweis auf ein ADM-System in die Doku-                   tragen hat, beschreiben Sie diesen Verdacht bei der
mentation des Beratungsfalls aufnehmen. Dadurch                 Kontaktaufnahme. Sie können dafür folgende For-
lassen sich die Fälle besser bündeln und eventuelle             mulierungshilfen und Musterfragen verwenden:
Muster erkennen.
                                                                „Aufgrund von Hinweisen gehen wir davon aus, dass
24	
   Antidiskriminierungsstelle des Bundes (2012). Schritt für    in diesem Fall ein automatisiertes Entscheidungs-
   Schritt durch die rechtliche Antidiskriminierungsbera-       system verwendet wurde, das heißt, dass Entschei-
   tung – Leitfaden für Beraterinnen und Berater: S. 30-59.
                                                                dungsmodelle automatisiert durch einen Algorith-
   Antidiskriminierungsverband Deutschland (2015). Stan-
   dards für eine qualifizierte Antidiskriminierungsbera-       mus oder ein Computerprogramm angewendet
   tung: S. 12f.                                                wurden. Haben Sie ein solches System verwendet?

  WAS KÖNNEN SIE TUN?
  Das Diskriminierungsrisiko durch ADM-Systeme ist ein relativ neues Problem in der Antidiskriminierungs-
  beratung. Fälle können sich in Abhängigkeit vom verwendeten ADM-System stark unterscheiden. Derzeit
  existieren erst wenige Fallbeispiele aus Deutschland. Dementsprechend gibt es wenig Erfahrungswissen,
  auf das Sie zurückgreifen können.
  Deswegen empfehlen wir, bei einem Verdacht auf Auswirkungen eines ADM-Systems als erstes eine der
  folgenden Stellen zu kontaktieren, die sich eingehend mit dieser Problematik beschäftigen. Sie können
  zum einen direkt bei der Fallbearbeitung unterstützen und zum anderen an passende Stellen (etwa Ver-
  braucher- oder Datenschutzstellen) weiterverweisen:

  AlgorithmWatch                          Antidiskriminierungsstelle            Antidiskriminierungsverband
     info@algorithmwatch.org               des Bundes                            Deutschland (advd)
     030-99 40 49 000                         beratung@ads.bund.de                  info@antidiskriminierung.org
                                           (im Betreff: „Bitte um kollegiale
                                           Beratung zu KI-Fall“)

                                                                                                             Seite 18
ADM-Systeme und Diskriminierung

Falls ja, um welche Software handelt es sich? Fand            werden. Testing-Verfahren sind jedoch mitunter sehr
in diesem Fall eine vollautomatisierte Entscheidung           aufwendig und anspruchsvoll, zum Beispiel bei Boni-
statt oder wurde die Entscheidung automatisiert               tätsprüfungen.
vorbereitet und dann durch einen Menschen getrof-
fen oder kontrolliert? Wie wurde das automatisierte
System gegen Diskriminierung und andere unge-
wollte Einflüsse gesichert? Wie wurde sichergestellt,                    FALLBEISPIEL
dass keine personenbezogenen Merkmale verwen-                            TESTING-VERFAHREN
det wurden?“                                                    Die Frau aus [Fallbeispiel a), S. 6] fühlt sich
                                                                diskriminiert und wendet sich an eine Antidis-
                                                                kriminierungsstelle. Der Fall bietet sich nach
Testing-Verfahren25                                             Ansicht der Beraterin für ein Testing an, da das
                                                                Scoring-Verfahren immer der gleichen Logik
Eine Methode, um Diskriminierung zu überprüfen                  folgt. Um aussagekräftig zu sein, müsste das
oder sichtbar zu machen, ist das Testing-Verfahren.             Testing jedoch groß angelegt werden mit einer
                                                                sehr hohen Anzahl von Vergleichspersonen. Für
Bei einem Verdacht auf Diskriminierung bei der
                                                                die Beratungsstelle ist das zum damaligen Zeit-
Wohnungssuche zum Beispiel funktioniert es folgen-
                                                                punkt zu aufwendig und ressourcenintensiv.
dermaßen: „Bei Testings bewerben sich jeweils eine
Test- und eine Kontrollperson um eine Wohnung.
Dieses Tester_innenpaar weist möglichst viele Ähn-
lichkeiten auf, unterscheidet sich aber in dem zu tes-
tenden Merkmal. Personen, die den Verdacht haben,             Es muss unterschieden werden, ob die Ergebnisse
auf dem Wohnungsmarkt oder in anderen Bereichen               des Testing-Verfahrens als Indiz in ein Klageverfah-
ungerechtfertigt benachteiligt [worden] zu sein, kön-         ren oder unterstützend für eine Stellungnahme ver-
nen Einzelfalltestings anwenden. Die durch das Tes-           wendet werden sollen. Leider gibt es außerhalb von
ting gewonnenen Indizien für eine Diskriminierung             Diskriminierung am Wohnungsmarkt kaum Recht-
können dann zur Anspruchsbegründung gerichtlich               sprechung, die Hinweise darauf gibt, ob die Ergeb-
verwendet werden.“26 Die Methode ist auf andere               nisse eines solchen Testing-Verfahrens vor Gericht
Anwendungsbereiche des AGG übertragbar, zum                   als Indiz anerkannt würden. Die Hürden vor Gericht
Beispiel auf die Kreditvergabe.                               sind hoch.

Die Testing-Methode bietet sich im Zusammenhang               Großes Potenzial könnten die Ergebnisse eines Tes-
mit automatisierten Entscheidungen an, da die Ent-            ting-Verfahrens dagegen im Rahmen einer Aufforde-
scheidungen immer nach dem gleichen grundle-                  rung zur Stellungnahme haben und für die Öffent-
genden Muster – also systematisch – entschieden               lichkeitsarbeit rund um einen solchen Fall. Es muss
                                                              jedoch immer entschieden werden, ob genügend
                                                              Ressourcen für ein solches Verfahren vorhanden
25	
   Weiterführende Literatur zur Testing-Methode: Senats-      sind.
   verwaltung für Arbeit, Integration und Frauen. Landes-
   stelle für Gleichbehandlung – gegen Diskriminierung.
   Diskriminierung sichtbar machen (2012). Dokumentation      Bei Online-Formularen lässt sich ein Testing relativ
   der LADS-Fachrunde vom 8.11.2012 zu fachlichen und
                                                              einfach durchführen, da Sie Angaben leicht ändern
   methodologischen Anforderungen an Testing-Verfahren.
   Antidiskriminierungsstelle des Bundes (2020). Fair mie-    können. Sollte zum Beispiel bei einer Wohnungsan-
   ten – fair wohnen. Leitfaden für Mieterinnen und Mieter    frage über ein Wohnungsportal der Verdacht beste-
   und Beratungsstellen.
                                                              hen, dass aufgrund des Geschlechts diskriminiert
26	
   Senatsverwaltung für Arbeit, Integration und Frauen.
   Landesstelle für Gleichbehandlung – gegen Diskri-
                                                              wird, kann das Geschlecht testweise geändert wer-
   minierung. Diskriminierung sichtbar machen (2012).         den. So kann überprüft werden, ob die Rückmeldung
   Dokumentation der LADS-Fachrunde vom 8.11.2012 zu          beziehungsweise Entscheidung sich je nach angege-
   fachlichen und methodologischen Anforderungen an
   Testing-Verfahren, S. 10.                                  benem Geschlecht ändert.

                                                                                                          Seite 19
Sie können auch lesen