Algorithmische Entscheidungssysteme - Menschenrechtliche Vorgaben und Entwicklungen auf internationaler Ebene - Deutsches Institut für ...

Die Seite wird erstellt Hortensia-Antonija Vetter
 
WEITER LESEN
Algorithmische Entscheidungssysteme
Menschenrechtliche Vorgaben und Entwicklungen auf internationaler Ebene

 Information

Künstliche Intelligenz (KI) kann die Verarbei­       Was sind algorithmische
tung riesiger Datenmengen enorm erleichtern,         Entscheidungssysteme?
doch birgt ihr Einsatz auch menschenrecht­
liche Risi­ken. Die vorliegende Information          KI, Algorithmen oder algorithmische Systeme
bietet einen Überblick darüber, wie verschie­        werden oft synonym benutzt. KI im Sinne einer
dene UN-Menschenrechtsgremien menschen­              eigenständig und „menschengleich“ denkenden
rechtliche Fragen bei der Anwendung von KI           und handelnden Maschine gibt es bisher nicht und
beurteilen und welche Verpflichtungen sich           wird es auch in absehbarer Zeit nicht geben.3 Was
für Staaten daraus ergeben.                          es gibt, sind von Menschen entwickelte algorithmi­
                                                     sche Entscheidungssysteme,4 die Daten analy­sieren
Durch die rasanten technischen Entwicklungen         und Lösungen für bestimmte Probleme oder Berei­
in den vergangenen Jahren und die immer viel­        che entwickeln und vorschlagen.5 Dies geschieht
fältigeren Einsatzgebiete von Künstlicher Intelli­   entweder anhand eines durch die programmierende
genz (KI) ist gesetzgeberisches Eingreifen immer     Person vorgegebenen Lösungsweges oder das Sys­
dringender geworden, um die Gefahren und             tem „lernt selbst“ aus den vorhandenen Daten und
Risiken beim Einsatz von KI zu regulieren. So        entwickelt daraus algorithmenbasierte Lösungs­
veröffentlichte die EU-Kommission im April 2021      wege. Je komplexer der selbstlernende Mechanis­
ihren Verordnungsentwurf für die Regulierung         mus wird, desto schwieriger oder unmöglich ist es
von KI, nachdem sie im Februar 2020 bereits ein      für Menschen nachzuvollziehen, wie das System zu
Weißbuch für ein europäisches Konzept zum Um­        seinen Schlussfolgerungen gekommen ist.
gang mit den Chancen und Risiken von KI veröf­
fentlich hatte.1 In Deutschland verabschiedete       Die Datenethikkommission differenzierte 2019 drei
die Enquete-Kommission Künstliche Intelligenz        Varianten von Entscheidungen, in denen Algorith­
des Deutschen Bundestages im Oktober 2020            men eine mehr oder weniger große Rolle spielen:6
ihren Abschlussbericht, in dem sie sich mit          algorithmenbasierte Entscheidungen sind
den Herausforderungen und Chancen von KI für         „menschliche Entscheidungen, die sich auf algorith­
Gesellschaft, Staat und Wirtschaft auseinander­      misch berechnete (Teil-)Informationen stützen“;
setzt. Im Dezember 2020 beschloss die Bundes­        algorithmengetriebene Entscheidungen sind
regierung die Fortschreibung ihrer KI-Strategie,     „menschliche Entscheidungen, die durch Ergeb­
mit der sie die Erforschung, Entwicklung und An­     nisse algorithmischer Systeme in einer Weise
wendung von KI in Deutschland fördern will.2 Im      geprägt werden, dass der tatsächliche Entschei­
Folgenden werden die menschenrechtlich rele­         dungsspielraum und damit die Selbstbestimmung
vanten Kernpunkte der Debatte um KI erläutert.       des Menschen eingeschränkt werden“;
2                                                                 A LG O R I T H M I S C H E E N T S C H E I D U N G S SY S T E M E

algorithmendeterminierte Entscheidungen „führen         Entscheidungen, die mithilfe von Algorithmen
automatisiert zu Konsequenzen, sodass im Einzel­        getroffen werden, können aber nicht nur Auswir­
fall keine menschliche Entscheidung mehr vorge­         kungen auf individueller Ebene haben, sondern
sehen ist“.                                             auch gesamtgesellschaftlich. So sortieren soziale
                                                        Medien mithilfe von algorithmischen Entschei­
                                                        dungssystemen Nachrichten vor und zeigen den
Menschenrechtliche Relevanz                             einzelnen Nutzer_innen bevorzugt solche, die
                                                        das algorithmische Entscheidungssystem als
Nicht alle Entscheidungen, die mithilfe von oder        relevant für diese erkannt hat. Das hat zur Folge,
durch Algorithmen getroffen werden, haben un­           dass Nutzer_innen nur noch solche Nachrichten
mittelbar menschenrechtliche Relevanz. Wenn bei­        an­gezeigt bekommen, die denen ähneln, die sie
spielsweise Klimadaten verarbeitet werden oder          sich vorher angesehen haben. So werden andere
ein algorithmenbasiertes Kontrollsystem an einem        gesellschaftliche Diskurse zunehmend aus­
Fließband fehlerhaft produzierte Teile erkennt und      geblendet. Stattdessen wird die Weltsicht der
automatisch aussortiert, ist zwar ein algorithmisches   einzelnen Nutzer_innen durch die angezeigten
Entscheidungssystem am Werk – Menschen sind da­         Nachrichten bestätigt und es entsteht das Zerr­­
durch aber nicht betroffen oder nur insofern, als die   bild, dass „alle“ genau so denken wie sie selbst.
eingesetzte Technik Fehler vielleicht besser erkennt    Eine Auseinandersetzung mit unterschiedlichen
als Menschen und dadurch Arbeitsplätze durch            Meinungen findet so immer weniger statt.
Automatisierung wegfallen oder sich ver­ändern.
                                                        Einige Menschenrechte, wie das Recht auf Privat­
Menschenrechtlich relevant wird der Einsatz von         sphäre und das Diskriminierungsverbot, sind durch
algorithmischen Entscheidungssystemen erst dann,        die Anwendung algorithmischer Entscheidungssys­
wenn sie Menschen in ihren Rechten betreffen.7          teme besonders gefährdet; ihre Verletzung zieht
Das ist dann der Fall, wenn personenbezogene            meistens eine Verletzung auch anderer Menschen­
Daten verarbeitet werden und ein algorithmisches        rechte nach sich.8 Daneben ist auch das Recht
Entscheidungssystem auf Grundlage dieser Daten          auf Zugang zu Abhilfe von besonderer Bedeutung.
beispielsweise darüber entscheidet, ob jemand eine      Denn für Betroffene wird es schwierig, gegen eine
staatliche Leistung erhalten oder in einem Bewer­       Entscheidung Einspruch zu erheben, wenn diese
bungsverfahren für den Öffentlichen Dienst zuge­        algorithmengetrieben oder algorithmendeterminiert
lassen werden soll.                                     getroffen wurde. Falls sie überhaupt Kenntnis davon
                                                        erlangen, dass sie in ihren Rechten verletzt wurden,
Dabei können algorithmische Entscheidungs­              bleibt es für sie fast immer unmöglich, Einblick in
systeme positive als auch negative menschen­            die Entscheidungsgrundlage des algorithmischen
rechtliche Relevanz entfalten. Im medizinischen         Entscheidungssystems zu erhalten.
Bereich, beispielsweise der radiologischen Dia­
gnostik, können sie unterstützend wirken und            Das Recht auf Privatsphäre hat im digitalen Zeit­
so zur Verwirklichung des Rechts auf Gesund­            alter eine immense Bedeutung und Hebelwirkung.
heit beitragen. Rechte von Menschen sind auch           Wird es angemessen geschützt, ermöglicht es
betroffen, wenn mithilfe eines algorithmischen          politische, wirtschaftliche, soziale und kulturelle
Entscheidungssystems eine Vorhersage über               Teilhabe und damit die Ausübung der mit dieser
menschliches Handeln getroffen wird, beispiels­         Teilhabe verbundenen Menschenrechte. Umge­
weise darüber, ob jemand zu einer riskanten             kehrt kann die Aushöhlung der Privatsphäre zur
Fahrweise im Straßenverkehr neigt oder eine             Verletzung und Einschränkung anderer Menschen­
Rechnung bezahlen wird. Solche Vorhersagen              rechte führen. So kann beispielsweise der Einsatz
aufgrund von Wahrscheinlichkeiten können dann           automatischer Gesichtserkennungssysteme zur
die Entscheidung, ob eine Person beispielsweise         Aushöhlung der Versammlungsfreiheit führen,
einen Kredit bekommt, wesentlich beeinflussen.          wenn Menschen aus Angst davor, identifiziert und
A LG O R I T H M I S C H E E N T S C H E I D U N G S SY S T E M E                                                     3

verfolgt zu werden, nicht an einer Demonstration                    sondern weil es mit großen Mengen an Bildern
teilnehmen.9 Oder das Recht auf ein faires Verfah­                  darauf trainiert wurde, einen Menschen zu erkennen.
ren kann beeinträchtigt werden, wenn die Identi­                    Zeigen diese „Trainingssätze“ nur bestimmte
fizierung von Straftaten oder Straftäter_innen an                   Menschen, beispielsweise nur Frauen oder nur
algorithmische Entscheidungssysteme ausgela­                        Personen bestimmter Herkunft, können algorith­
gert wird, die falsch-positive Ergebnisse liefern                   mische Entscheidungssysteme andere Menschen
oder diskriminierende Entscheidungen treffen.10                     auch nicht als solche erkennen. Sie sind daher
Im Rahmen von Grenzkontrollen, insbesondere                         fehleranfällig: Ihre Entscheidungen basieren auf
an Flughäfen, kann der Einsatz automatischer                        den zugrundeliegenden, realitäts- und damit wert­
Gesichtserkennungssysteme diskriminierend                           behafteten Trainingsdaten.15
wirken, wenn diese Systeme Menschen aufgrund
ihrer Hautfarbe oder ihres Geschlechts nicht                        Dabei kann Automatisierung, also die Auslage­
oder weniger gut erkennen.11 Denn durch die                         rung einzelner Schritte im Entscheidungsprozess
Nicht- oder Falscherkennung werden sie von                          an eine Maschine, auch Diskriminierung entgegen­
automatisierten Grenzkontrollen ausgeschlossen,                     wirken, wenn Entscheidungen auf objektiven Kri­
womit negative Stereotype wiederholt und ver­                       terien beruhen.16 Da jedoch die Datensätze, die
festigt werden. Aber auch wirtschaftliche und                       zur Automatisierung von Entscheidungsschritten
soziale Rechte können betroffen sein: Wenn                          herangezogen werden, aus der gesellschaftlichen
Staaten bei der Verwaltung der Daseinsvorsorge,                     Realität gewonnen werden, enthalten sie genau
etwa bei der Bewilligung von Sozialleistungen,                      die Vorurteilsstrukturen, die in der Gesel­schaft
immer mehr auf von Techno­logie-Unternehmen                         zu Diskriminierung führen. Ein bekanntes Beispiel
entwickelte algorithmische Entscheidungssysteme                     dafür sind Bewerbungsverfahren, die auf die
vertrauen, die nicht mehr durchschaubar und                         Daten vergangener Bewerbungsverfahren zurück­
hinterfragbar sind.12                                               greifen, um die besten Kandidat_innen auszu­
                                                                    wählen. Wurden in der Vergangenheit vorzugsweise
                                                                    Männer eingestellt, könnte das algorithmische
Datenanalyse ohne                                                   Entscheidungssystem in seiner Analyse der Daten
gesellschaftlichen Kontext                                          folgern, dass Männer bessere Kandidaten als
                                                                    Frauen sind.17 Probleme können aus den Daten­
Die Aufzählung dieser verschiedenen Beispiele                       sätzen und der Datenanalyse auch dadurch ent­ste­
macht bereits eines deutlich: In der öffentlichen                   hen, dass anonymisierte Daten de-anonymisiert
Debatte überwiegen die Beispiele negativer                          werden oder die Datenanalyse Korrelationen
Konsequenzen aus dem Einsatz algorithmischer                        entdeckt und verarbeitet, welche keine kausalen
Entscheidungssysteme. Grund hierfür ist die Funk­                   Zusammenhänge haben.18
tionsweise dieser Systeme. Sie basieren auf
mathematischen Regeln, nach denen eine Ent­                         Automatisierung kann zudem Transparenz, Unter­
scheidung getroffen wird, sowie Algorithmen,                        suchbarkeit und Erklärbarkeit einer Entscheidung
die dieses mathematische Modell anwendbar                           verhindern.19 Denn selbstlernende algorithmische
machen.13 Um das Modell anzuwenden, braucht                         Entscheidungssysteme sind nicht (mehr) nur auf
es schließlich riesige Datenmengen und eine                         die von (menschlichen) Programmierer_innen
umfassende Analyse dieser Daten. Beides, Daten­                     entworfenen Entscheidungsregeln angewiesen,
sätze und Datenanalyse, können Fehlerquellen                        sondern in der Lage, eigene neue Entscheidungs­
sein und zu Risiken für die Wahrnehmung der                         findungsregeln aufzustellen und anzuwenden.20
Menschenrechte führen.14 Denn diesen Daten,                         Diese Anpassungs- und Lernfähigkeit hat erheb­
den „Trainingssätzen“, fehlt es am gesellschaft­                    lichen Einfluss darauf, ob die getroffene Ent­
lichen Kontext: Ein algorithmisches Entscheidungs­                  scheidung transparent und nachvollziehbar ist
system identifiziert einen Menschen auf einem                       und führt damit zur Frage, wer genau für eine
Bild nicht, weil es weiß, was ein Mensch ist,                       Entscheidung verantwortlich ist.21
4                                                                 A LG O R I T H M I S C H E E N T S C H E I D U N G S SY S T E M E

Staatenpflichten beim Einsatz algo­                     Normative Vorgaben und Entwicklun­
rithmischer Entscheidungssysteme                        gen auf internationaler Ebene

Staaten sind verpflichtet, die Menschenrechte zu        Die Menschenrechte sind in einer Reihe von Ver­
achten, zu schützen und zu gewährleisten. Die Ach­      trägen der Vereinten Nationen auf internationaler
tungspflicht bedeutet, dass der Staat Menschen­         Ebene verankert. Dazu gehören der Zivil- und der
rechte nicht verletzen darf, wenn er in der Inter­      Sozialpakt, aber auch gruppenspezifische und the­
aktion mit seinen Bürger_innen algorithmische           matische Menschenrechtsverträge wie die UN-Be­
Entscheidungssysteme anwendet. Wenn ein Staat           hindertenrechtskonvention oder die Anti-Rassis­
beispielsweise bei der Bearbeitung und Bewilligung      mus-Konvention, die beide insbesondere in Hinblick
von Sozialleistungen auf algorithmische Entschei­       auf Diskriminierungsverbote und Teilhaberechte von
dungssysteme zurückgreift, muss er sicherstellen,       Bedeutung sind.
dass er dabei nicht diskriminiert oder unverhältnis­
mäßig in die Privatsphäre eingreift.                    Die Menschenrechtsverträge kennen keine spe­
                                                        ziellen „digitalen Rechte“. Den Grund- und Men­
Der Staat muss darüber hinaus Menschenrechte            schenrechten liegt aber immer ein dynamisches
gewährleisten, also ermöglichen, dass Menschen          Verständnis zugrunde, ihre Interpretation orientiert
ihre Menschenrechte ausüben. Algorithmische             sich also an der jeweiligen Lebenswirklichkeit, mit
Entscheidungssysteme können hierbei unterstüt­          der sie konfrontiert werden, sowie den technologi­
zend wirken. Um wirkungsvolle politische Maß­           schen und gesellschaftlichen Weiterentwicklungen,
nahmen ergreifen zu können, ist die Erhebung            welche sich im Laufe der Zeit ergeben. Alle auf in­
und Analyse von Daten oft unerlässlich. Daher           ternationaler Ebene geschützten Menschenrechte
rufen auch Menschenrechtsgremien Staaten                entfalten ihre Wirkung deshalb offline wie online24
immer wieder dazu auf, aussagekräftige Daten zu         und somit auch mit Blick auf die Anwendung
sammeln und politische Maßnahmen auf Grund­             algorithmischer Entscheidungssysteme. Auch der
lage der gewon­nenen Erkenntnisse zu ergreifen.         UN-Menschenrechtsrat weist explizit darauf hin,
Selbstlernende algorithmische Entscheidungs­            dass Menschenrechte auch im digitalen Raum zu
systeme können dabei helfen, große Datenmen­            achten, zu schützen und zu gewährleisten sind.25
gen zu analysieren oder auch Strukturen und             Verschiedene UN-Gremien haben sich inzwischen
Zusammenhänge zu entdecken, nach denen                  mit den Auswirkungen algorithmischer Entschei­
bisher vielleicht nicht gesucht wurde.22 Ebenso         dungssysteme auf die Menschenrechte befasst.
können algorithmische Entscheidungssysteme
genutzt werden, um aus einer Gruppe von Per­            2019 griff die UN-Generalversammlung in ihrer
sonen jene zu identifizieren, die Anspruch auf          Resolution zum Recht auf Privatsphäre im digita­
besondere Unterstützungsleistungen haben,               len Zeitalter das Thema auf. Die Resolution hebt
beispielsweise um einem Studienabbruch von              die Notwendigkeit hervor, algorithmische Entschei­
Student_innen entgegenzuwirken.23                       dungssysteme auf der Grundlage von Menschen­
                                                        rechten zu gestalten, zu evaluieren und zu regulie­
Schließlich ist der Staat verpflichtet, seine Bürger_   ren und ruft Unternehmen dazu auf, die Achtung
innen auch vor Menschenrechtsverstößen durch            des Rechts auf Privatsphäre und anderer Men­
Dritte schützen, zum Beispiel vor Diskriminierung,      schenrechte in der Gestaltung, dem Betrieb, der Be­
die entstehen kann, wenn Unternehmen algorithmi­        wertung und der Regulierung von algorithmischen
sche Entscheidungssysteme anwenden. So dürfen           automatisierten Entscheidungsfindungssystemen
Arbeitgeber_innen bei Einstellungen beispielweise       sicherzustellen, sowie für die Behebung der Men­
nicht nach Geschlecht oder Herkunft diskriminie­        schenrechtsverstöße zu sorgen, die sie verursacht
ren. Dieses Verbot gilt natürlich auch, wenn bei der    oder zu denen sie beigetragen haben.26
Auswahl algorithmische Entscheidungssysteme
genutzt werden. Staaten sind also in der Pflicht,       In seiner 41. Sitzung (Juli 2019) beauftragte der
regulierend einzugreifen, um solche Menschen­           UN-Menschenrechtsrat sein Beratungsgremium
rechtsverstöße zu verhindern.                           (advisory committee), zur 47. Sitzung (Juni 2021)
A LG O R I T H M I S C H E E N T S C H E I D U N G S SY S T E M E                                                       5

eine Studie über die möglichen Auswirkungen,                        (b) sicherstellen, dass sie Regulierungsmaßnahmen
Chancen und Herausforderungen neuer und neu                         ergreifen, damit Menschenrechte bei Design,
entstehender digitaler Technologien im Hinblick auf                 Bereitstellung und Einsatz von algorithmischen
die Förderung und den Schutz der Menschenrechte                     Entscheidungssystemen durch Unternehmen im
vorzulegen.27 Anschließend nahm der UN-Men­                         Vordergrund stehen.32
schenrechtsrat in seiner 42. Sitzung in seiner Reso­
lution zum Recht auf Privatsphäre im digitalen Zeit­                Der UN-Sonderberichterstatter zu extremer Ar­
alter den Zusammenhang zwischen algorithmischen                     mut und Menschenrechte hat sich 2019 mit den
Entscheidungssystemen und Diskriminierung in den                    Auswirkungen des Einsatzes algorithmischer Ent­
Blick. Darin erkennen die Mitgliedsstaaten an, dass                 scheidungssysteme in Bezug auf sozialstaatliche
die Gestaltung, Entwicklung und Einführung neu­                     Leistungen beschäftigt („digital welfare state dys­
er und neu entstehender Technologien menschen­                      topia“). Er zeigt anhand von vielen Beispielen aus
rechtsbasiert reguliert werden muss, um das Recht                   allen Regionen der Welt, wie die Nutzung von algo­
auf Privatsphäre angemessen zu schützen. Zu die­                    rithmischen Entscheidungssystemen für die Verwal­
ser Regulierung gehöre „eine sichere, gesicher­                     tung von Sozialstaatsleistungen zu Reproduktion
te und qualitativ hochwertige Dateninfrastruktur                    und Verstärkung von Diskriminierung und Ungleich­
und durch die Entwicklung von auf den Menschen                      heit geführt hat. Die Digitalisierung der Daseinsvor­
ausgerichteten Prüfungsmechanismen sowie von                        sorge birgt auch die Gefahr, dass – unter dem An­
Rechtsbehelfsmechanismen“.28 Auf Grundlage der                      spruch, Abläufe effizienter zu gestalten und Kosten
Resolution fand im Mai 2020 ein eintägiges Exper­                   zu sparen – Bürger_innen nur noch von „maschinel­
tenseminar statt29, der in Auftrag gegebene thema­                  len“ Entscheidungen verwaltete Antragsteller_in­
tische Bericht der UN-Hochkommissarin für Men­                      nen sind und nicht mehr Rechteinhaber_innen. Da­
schenrechte liegt noch nicht vor.30                                 her empfiehlt der UN-Sonderberichterstatter (a) die
                                                                    explizite Prüfung der verwendeten Datensätze auf
In seiner Allgemeinen Empfehlung Nr. 36 zur Prä­                    Menschenrechtsstandards, (b) Transparenzpflich­
vention und Bekämpfung von Racial Profiling durch                   ten, damit die Öffentlichkeit und Betroffene die ein­
Strafverfolgungsbehörden hat der UN-Fachaus­                        gesetzten algorithmischen Entscheidungssysteme
schuss gegen rassistische Diskriminierung                           verstehen, und (c) dass Staaten Daseinsvorsorge in
auch das Thema Polizeiarbeit mit Hilfe von algorith­                einer Art betreiben, die „die Menschlichkeit und die
mischen Entscheidungssystemen aufgegriffen.31                       Belange der weniger Wohlhabenden in jeder Gesell­
Das kann sowohl die Aufklärung als auch die Vor­                    schaft in vollem Umfang berücksichtigt“. Techno­
hersage von Straftaten (predictive policing) betref­                logische Entwicklung, so der Sonderberichterstat­
fen. Der Ausschuss empfiehlt daher umfassende                       ter, hat durchaus das Potenzial, dazu beizutragen,
Maßnahmen, um Menschenrechte beim Einsatz von                       „einen höheren Lebensstandard für die Schwachen
algorithmischen Entscheidungssystemen umfas­                        und Benachteiligten zu gewährleisten“.33
send zu schützen.
                                                                    Anfang 2021 veröffentlichte der UN-Sonderbe­
Mehrere UN-Sonderberichterstatter haben sich ex­                    richterstatter zum Recht auf Privatsphäre Emp­
plizit mit den Auswirkungen von algorithmischen                     fehlungen zum Schutz des Rechts auf Privatsphäre
Entscheidungssystemen auf die Menschenrechte                        in der Entwicklung und dem Einsatz von algorithmi­
beschäftigt. In seinem Bericht zu den Auswirkun­                    schen Entscheidungssystemen. Darin stellt er acht
gen von Technologien künstlicher Intelligenz auf                    grundsätzliche Datenschutzerwägungen für den
die Menschenrechte, insbesondere auf das Recht                      Umgang mit algorithmischen Entscheidungssys­
auf Meinungsfreiheit und freie Meinungsäußerung,                    temen vor: rechtliche Zuständigkeit, ethische und
auf Privatsphäre und Nichtdiskriminierung hebt der                  gesetzliche Datenverarbeitungsgrundlage, Daten­
UN-Sonderberichterstatter zur Meinungsfrei­                         grundlagen, Verantwortung und Aufsicht, Kontrolle,
heit hervor, dass Staaten (a) eine menschenrecht­                   Transparenz und Erklärbarkeit, Rechte betroffener
liche Auswirkungsanalyse (human rights impact                       Personen und Schutzmaßnahmen. Auch er plädiert
assessment) durchführen sollten, bevor sie algo­                    für eine umfassende menschenrechtliche Auswir­
rithmische Entscheidungssysteme einsetzen; und                      kungsanalyse.34
6                                                                A LG O R I T H M I S C H E E N T S C H E I D U N G S SY S T E M E

Elemente eines menschenrechtsba­                       solchen Informationen können die wenigsten Men­
sierten Umgangs mit algorithmischen                    schen etwas anfangen. Auch rechtlich kann eine kom­
Entscheidungssystemen                                  plette Offenlegung problematisch sein. Stattdessen
                                                       sollten Nutzer_innen über die Existenz, den Zweck,
Aus den oben genannten Berichten, Resolutionen         die Beschaffenheit und die Wirkung des algorithmi­
und Allgemeinen Empfehlungen lassen sich folgen­       schen Entscheidungssystems informiert werden,41
de Schlussfolgerungen für Elemente eines men­          ebenso über Maßnahmen, die getroffen wurden, um
schenrechtsbasierten Ansatzes im Umgang mit al­        die Verletzung von Menschenrechten zu verhindern.42
gorithmischen Entscheidungssystemen ziehen:            Bürger_innen müssen wissen, dass eine für sie re­
                                                       levante Entscheidung durch oder mithilfe von algo­
Menschenrechtliche Auswirkungen prüfen: Be­            rithmischen Entscheidungssystemen getroffen wird.
hörden sollten vor der Entscheidung, ein algorithmi­   Dazu gehört auch, dass deutlich gemacht wird, wo
sches Entscheidungssystem entwickeln zu lassen         und/oder wann Menschen im Entscheidungspro­
oder zu nutzen, die möglichen menschenrechtli­         zess involviert sind, welcher Logik algorithmische Ent­
chen Auswirkungen untersuchen (human rights im­        scheidungssysteme folgen und welche Konsequenzen
pact assessment) und auch während des Betriebs         die Entscheidung im Einzelfall haben wird.43 Weiterhin
regelmäßig die menschenrechtlichen Auswirkun­          muss es zumindest für Fachleute möglich sein, die
gen überprüfen.35 Dies schließt sowohl eine Selbst­    technische Funktionsweise und die Entscheidungen
begutachtung als auch externe Begutachtung ein.36      des algorithmischen Entscheidungssystems nachzu­
Dafür können auch zunächst Pilotprojekte unter der     vollziehen44 und so auch die Justiz bei der Prüfung, ob
Aufsicht von unabhängigen und divers besetzten         Menschenrechte durch das algorithmische Entschei­
Gremien initiiert werden.37                            dungssystem verletzt wurden, zu unterstützen.

Diskriminierungsrisiken ausschließen: Men­             Zugang zum Recht: Betroffene müssen Zugang zu
schenrechtliche Auswirkungsanalysen sollten im­        ausreichendem, wirksamem, raschem und ange­
mer auch untersuchen, ob das algorithmische            messenem Rechtsschutz bekommen können und al­
Entscheidungssystem diskriminierende Wirkung           gorithmisch getroffene Entscheidungen anfechten
entfalten könnte oder entfaltet.38 Damit muss ein      können. Vorfälle von Diskriminierung und andere ne­
Fokus auf die verwendeten Datensätze gelegt wer­       gative menschenrechtliche Auswirkungen algorith­
den: Enthalten sie Daten, in dem eine Personen­        mischer Entscheidungssysteme sollten umfassend
gruppe bevorzugt wird? Ist das Entscheidungssys­       untersucht und auch sanktioniert werden.45 Zum
tem so programmiert, dass es aus Datensätzen           Rechtsschutz gehört auch, dass Verantwortlichkei­
selbstlernend diskriminierende Näherungsvariablen      ten vorab geregelt werden und immer eine juristische
(sogenannte Proxies) entwickelt und zur Lösungs-       oder natürliche Person verantwortlich sein muss.46
oder Entscheidungsfindung heranzieht und so gege­      Ansonsten können Widersprüche gegen Entscheidun­
benenfalls diskriminierende Wirkung entfaltet?39       gen, die algorithmische Entscheidungssysteme ge­
                                                       troffen haben, nicht bearbeitet werden und Missbräu­
Partizipation sicherstellen: Zu einem menschen­        che nicht den jeweiligen Verantwortlichen angelastet
rechtsbasierten Umgang mit algorithmischen Ent­        werden. Fehlender Rechtsschutz könnte dann auch
scheidungssystemen gehört auch die Beteiligung         zu Akzeptanzproblemen der verwendeten Technolo­
potenzieller Nutzer_innengruppen und Betroffener.      gie, aber insbesondere auch zu schwindendem Ver­
Diese sollten im Entwicklungs- und Beschaffungs­       trauen gegenüber staatlichen Institutionen führen.
stadium, aber auch während der Nutzung algorith­
mischer Entscheidungssysteme durch öffentliche         Regulierung: Schließlich müssen Staaten regulie­
Beteiligungsformate einbezogen werden.40               rend eingreifen, damit die genannten Standards
                                                       auch von Unternehmen eingehalten werden, die
Transparenz und Information: Mit der Anwendung         algo­rithmische Entscheidungssysteme (oft im
von algorithmischen Entscheidungssystemen gehen        staatlichen Auftrag) entwickeln und anwenden.47
auch umfassende Transparenz- und Informations­         Dazu gehört auch die regelmäßige Evaluierung und
pflichten einher. Information und Transparenz bedeu­   Überarbeitung solcher Standards. Dies sollte auch
ten nicht die komplette Offenlegung von Codes; mit     die Gründung (oder Beauftragung vorhandener)
A LG O R I T H M I S C H E E N T S C H E I D U N G S SY S T E M E                                                                            7

unabhängiger Aufsichtsbehörden umfassen,                                 algorithmischen Entscheidungssystemen werden
welche algorithmische Entscheidungssysteme auf                           vor ihrem Einsatz nur unzureichend analysiert –
die Ein­haltung von Menschenrechtsstandards hin                          wenn dies überhaupt getan wird. Dieser Befund gilt
überprüfen können. Ergeben solche Prüfungen ein                          gleichermaßen für Staaten und für Unternehmen, die
hohes Diskriminierungs- oder anderes menschen­                           algorithmische Entscheidungssysteme entwickeln.
rechtliches Risiko, sollte auf den Einsatz der ent­
sprechenden Systeme verzichtet werden.48                                 Staaten müssen dafür Sorge tragen, dass sie bei
                                                                         der Anwendung von algorithmischen Entschei­
Algorithmische Entscheidungssysteme sind keine                           dungssystemen Menschenrechte achten, schützen,
selbstständig denkenden Maschinen, sondern                               fördern und gewährleisten. Dies kann auch bedeu­
technische Hilfsmittel, die sehr große Datenmen­                         ten, dass der Einsatz algorithmischer Entschei­
gen nach vorgegebenen oder selbstgelernten Algo­                         dungssysteme in manchen Bereichen ausgeschlos­
rithmen analysieren können. Sie sind damit in be­                        sen werden muss. Der Verordnungsentwurf der
stimmten Bereichen sehr leistungsfähig. Mit Blick                        EU-Kommission zur Regulierung von KI geht durch
auf die bisherige Praxis überwiegen aus menschen­                        die Klassifizierung mancher Anwendungen als „un­
rechtlicher Perspektive Sorge bereitende Beispiele.                      annehmbares Risiko“ einen ersten Schritt in diese
Die menschenrechtlichen Auswirkungen von                                 Richtung.

1  European Commission (2021): Proposal for a Regulation laying          11 UN, Special Rapporteur on contemporary forms of racism, racial
   down harmonised rules on artificial intelligence. COM(2021) 206          discrimination, xenophobia and related intolerance (2020): Re­
   final; European Commission (2020): Weißbuch zur Künstlichen              port of the Special Rapporteur on contemporary forms of racism,
   Intelligenz – ein europäisches Konzept für Exzellenz und Vertrau­        racial discrimination, xenophobia and related intolerance, UN
   en, COM(2020) 65 final.                                                  Doc. A/75/590, Ziff. 9.
2 Bundesregierung (02.12.2020): Künstliche Intelligenz –                 12 UN, Special Rapporteur on extreme poverty and human rights
   „Die entscheidende Zukunftstechnologie des 21. Jahrhunderts“.            (2019): Report of the Special Rapporteur on extreme poverty and
   https://www.bundesregierung.de/breg-de/aktuelles/fort­                   human rights, UN Doc. A/74/493.
   schreibung-ki-strategie-1824340 (abgerufen am 24.05.2021);            13 Algorithm Watch (2019): Atlas der Automatisierung. Auto­
   Deutscher Bundestag (28.10.2020): Bericht der Enquete-Kom­               matisierte Entscheidungen und Teilhabe in Deutschland,
   mission Künstliche Intelligenz – Gesellschaftliche Verantwortung         S. 9. https://atlas.algorithmwatch.org/wp-content/up­
   und wirtschaftliche, soziale und ökologische Potenziale. Druck­          loads/2019/07/Atlas_der_Automatisierung_von_Algori­
   sache 19/23700.                                                          thmWatch.pdf (abgerufen am 17.01.2020).
3 Access Now (2018): Human Rights in the Age of Artificial In­           14 Council of Europe (2018), a.a.O., S. 10.
   telligence, S. 8. https://www.accessnow.org/cms/assets/               15 Beispielsweise kann es passieren, dass ein Bilderkennungspro­
   uploads/2018/11/AI-and-Human-Rights.pdf (abgerufen am                    gramm Küchen automatisch mit Frauen assoziiert, weil die vor­
   17.01.2020).                                                             handenen Trainingsdaten überwiegend Küchen und Frauen ab­
4 Für eine umfassende Darstellung siehe beispielsweise OECD                 bilden. Süddeutsche.de (27.08.2017): Sexismus im Algorithmus.
   (2019): Artificial Intelligence in Society. Paris: OECD Publishing.      https://www.sueddeutsche.de/digital/netzkolumne-
5 UN, Special Rapporteur on the promotion and protection of the             vorurteile-im-algorithmus-1.3642503 (abgerufen am
   right to freedom of opinion and expression (2018): Report of the         21.05.2021).
   Special Rapporteur on the promotion and protection of the right       16 UN, Special Rapporteur on the promotion and protection of the
   to freedom of opinion and expression, UN Doc. A/73/348, Ziff. 4.         right to freedom of opinion and expression (2018), a.a.O., Ziff. 6.
6 Datenethikkommission der Bundesregierung (2019): Gutachten             17 The Verge (10.10.2018): Amazon reportedly scraps internal AI
   der Datenethikkommission, S. 24. https://www.bmi.bund.de/                recruiting tool that was biased against women. The secret pro­
   SharedDocs/downloads/DE/publikationen/themen/                            gram penalized applications that contained the word “women’s”.
   it-digitalpolitik/gutachten-datenethikkommission.html (abgeru­           https://www.theverge.com/2018/10/10/17958784/
   fen am 21.02.2020).                                                      ai-recruiting-tool-bias-amazon-report (abegrufen am 21.05.2021).
7 Zweig, Katharina A. (2019): Algorithmische Entscheidungen:             18 UN, Special Rapporteur on the promotion and protection of the
   Transparenz und Kontrolle. In: Konrad-Adenauer-Stiftung, Analy­          right to freedom of opinion and expression (2018), a.a.O., Ziff. 7.
   sen & Argumente 2019 (338), S. 5.                                     19 Ebd., Ziff. 6.
8 UN, Special Raporteur on the right to privacy (2021): Report           20 Council of Europe (2018), a.a.O., S. 6.
   of the Special Raporteur on the right to privacy, UN Doc. A/          21 UN, Special Rapporteur on the promotion and protection of the
   HRC/46/37, Ziff. 2, 13.                                                  right to freedom of opinion and expression (2018), a.a.O., Ziff. 8.
9 Access Now (2018), a.a.O., S. 21.                                      22 The Guardian (20.02.2020): Powerful antibiotic discovered using
10 Council of Europe (2018): Algorithms and Human Rights. Study             machine learning for first time. https://www.theguardian.com/
   on the human rights dimensions of automated data processing              society/2020/feb/20/antibiotic-that-kills-drug-resistant-
   techniques and possible regulatory implications, DGI (2017)12,           bacteria-discovered-through-ai (abgerufen am 24.05.2021).
   S. 10.
8                                                                                    A LG O R I T H M I S C H E E N T S C H E I D U N G S SY S T E M E

23 Martini, Mario u.a. (2020): Automatisch erlaubt? Fünf Anwen­         35 UN, Committee on the Elimination of Racial Discrimination
   dungsfälle algorithmischer Systeme auf dem juristischen                 (2020), a.a.O., Ziff. 60; UN, Special Rapporteur on the promotion
   Prüfstand. Gütersloh: Bertelsmann Stiftung, S. 22.                      and protection of the right to freedom of opinion and expression
24 UN, General Assembly (2013): Resolution “The right to privacy in        (2018), a.a.O., Ziff. 53.
   the digital age”, UN Doc. A/RES/68/167, OP 3.                        36 UN, Special Rapporteur on the promotion and protection of the
25 UN, Human Rights Council (2018): Resolution “The promotion,             right to freedom of opinion and expression (2018), a.a.O., Ziff. 53.
   protection and enjoyment of human rights on the Internet”, UN        37 UN, Committee on the Elimination of Racial Discrimination
   Doc. A/HRC/RES/38/7, OP 1.                                              (2020), a.a.O., Ziff. 59.
26 UN, General Assembly (2018), Resolution “The right to privacy in     38 UN, Committee on the Elimination of Racial Discrimination
   the digital age”, UN Doc. A/RES/73/179, PP 19, OP 7 (d).                (2020), a.a.O., Ziff. 58; UN, Special Rapporteur on the promotion
27 UN, Human Rights Council (2019): Resolution “New and emer­              and protection of the right to freedom of opinion and expression
   ging digital technologies and human rights”, UN Doc. A/HRC/             (2018), a.a.O., Ziff. 52.
   RES/41/11, OP 1; die Studie wird voraussichtlich unter UN            39 UN, Special Rapporteur on the promotion and protection of the
   Docs. A/HRC/47/52 erscheinen, UN, Human Rights Council                  right to freedom of opinion and expression (2018), a.a.O., Ziff. 52.
   (2021): Agenda and annotations, UN Doc. A/HRC/47/1, Ziff. 82.        40 UN, Committee on the Elimination of Racial Discrimination
28 UN, Human Rights Council (2019): Resolution “The right to               (2020), a.a.O., Ziff. 60; UN, Special Rapporteur on the promotion
   privacy in the digital age”, UN Doc. A/HRC/RES/42/15, OP 5.             and protection of the right to freedom of opinion and expression
29 UN, Office of the High Commissioner for Human Rights: Expert            (2018), a.a.O., Ziff. 54.
   Seminar on Artificial Intelligence and the Right to Privacy, 27-28   41 UN, Special Rapporteur on the promotion and protection of the
   May 2020. Report of the proceedings. https://www.ohchr.org/             right to freedom of opinion and expression (2018), a.a.O., Ziff. 50.
   Documents/Issues/DigitalAge/ExpertSeminarReport-Right-               42 UN, Committee on the Elimination of Racial Discrimination
   Privacy.pdf (abgerufen am 21.05.2021).                                  (2020), a.a.O., Ziff. 61.
30 UN, Human Rights Council (2021): Agenda and annotations,             43 UN, Special Rapporteur on the promotion and protection of the
   UN Doc. A/HRC/47/1, Ziff. 46.                                           right to freedom of opinion and expression (2018), a.a.O., Ziff. 49.
31 UN, Committee on the Elimination of Racial Discrimination            44 Ebd., Ziff. 56.
   (2020): General recommendation No. 36 (2020) on preventing           45 UN, Committee on the Elimination of Racial Discrimination
   and combating racial profiling by law enforcement officials,            (2020), a.a.O., Ziff. 65.
   UN Doc. CERD/C/GC/36, Ziff. 21–36.                                   46 UN, Special Raporteur on the right to privacy (2021), a.a.O., Ziff. 9.
32 UN, Special Rapporteur on the promotion and protection of            47 UN, Committee on the Elimination of Racial Discrimination
   the right to freedom of opinion and expression (2018), a.a.O.,          (2020), a.a.O., Ziff. 63–64; UN, Special Rapporteur on the pro­
   Ziff. 62–63.                                                            motion and protection of the right to freedom of opinion and
33 UN, Special Rapporteur on extreme poverty and human rights              expression (2018), a.a.O., Ziff. 63.
   (2019), a.a.O., Ziff. 50, 81–84.                                     48 UN, Committee on the Elimination of Racial Discrimination
34 UN, Special Raporteur on the right to privacy (2021), a.a.O.,           (2020), a.a.O., Ziff. 62, 63.
   Ziff. 27–49, 50–61.

Impressum                                                               Das Institut
Information Nr. 35 | Juni 2021 | ISSN 2509–9493 (PDF)                   Das Deutsche Institut für Menschenrechte ist die unabhängige
                                                                        Nationale Menschenrechtsinstitution Deutschlands. Es ist gemäß
HERAUSGEBER: Deutsches Institut für Menschenrechte                      den Pariser Prinzipien der Vereinten Nationen akkreditiert (A-Sta­
Zimmerstraße 26/27 | 10969 Berlin                                       tus). Zu den Aufgaben des Instituts gehören Politikberatung, Men­
Tel.: 030 259 359–0 | Fax: 030 259 359–59                               schenrechtsbildung, Information und Dokumentation, anwendungs­
info@institut-fuer-menschenrechte.de                                    orientierte Forschung zu menschenrechtlichen Themen sowie die
www.institut-fuer-menschenrechte.de                                     Zusammenarbeit mit internationalen Organisationen. Es wird vom
                                                                        Deutschen Bundestag finanziert. Das Institut ist zudem mit dem
AUTORIN: Rosa Öktem                                                     Monitoring der Umsetzung der UN-Behindertenrechtskonvention
                                                                        und der UN-Kinderrechtskonvention betraut worden und hat hierfür
LIZENZ:                                                                 entsprechende Monitoring-Stellen eingerichtet.

Creative Commons (CC BY-NC-ND 4.0)
https://creativecommons.org/licenses/by-nc-nd/4.0/deed.de
Sie können auch lesen