Warum sollte KI vertrauenswürdig sein? - ZVKI

Die Seite wird erstellt Hanne Heck
 
WEITER LESEN
Warum sollte KI vertrauenswürdig sein?
In den Debatten um Künstliche Intelligenz (KI) tauchen immer häufiger Begriffe auf, die
eine Verbindung von KI-Technologien zu Menschen und Gesellschaften herstellen. Dabei ist
die Rede von Gemeinwohlorientierung, von Menschenzentrierung und vor allem von
Vertrauen. Vertrauenswürdige KI ist in den politischen Diskursen um KI-Systeme zu einer
besonders häufig bemühten Prämisse1 herangewachsen, wie etwa in den „OECD AI
Principles“2 von 2019 oder im Entwurf der KI-Verordnung der Europäischen Union (EU)3 von
2021. Letztere hat das Ziel, sichere und vertrauenswürdige KI-Systeme zu gewährleisten,
um möglichen Risiken zu begegnen, die mit der Entwicklung, dem Einsatz und der Nutzung
solcher Technologien verbunden sein können.4
Die KI-Verordnung der EU bezieht sich auf die „Ethik-Leitlinien für eine vertrauenswürdige
KI“5, die die Hochrangige Expertengruppe für Künstliche Intelligenz (AI HLEG) zuvor
entwickelt hat. Zahlreiche Fachbeiträge, wissenschaftliche Auseinandersetzungen und
Policy Paper ziehen diese Leitlinien heran, um zu begründen, warum Vertrauen in KI
notwendig ist und wie sich die durch die AI HLEG erarbeiteten Kriterien umsetzen lassen.
Ein Beispiel dafür ist die „Deutsche Normungsroadmap Künstliche Intelligenz“, die in den
Leitlinien und ihrer Verwirklichung die Chance sieht, dass die deutsche Wirtschaft eine
Vorreiterrolle einnimmt, sofern sie es schafft, europäische Wertmaßstäbe in KI-
Anwendungen umzusetzen.6 Zugleich gilt es, Überregulierung zu vermeiden und
Innovationen zu fördern.7
Das „Weißbuch zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und
Vertrauen“ hält fest, dass europäische Bürger:innen unter anderem aufgrund von
Informationsasymmetrien bei algorithmischen Entscheidungsprozessen um ihre Rechte
und Sicherheit fürchten. Deshalb definiert die KI-Strategie von 2020 die Notwendigkeit, EU-
Bürger:innen vor unbeabsichtigten Auswirkungen oder Missbrauch zu schützen und dafür
zu sorgen, dass sie ihre Grundrechte wahrnehmen können. Neben fehlenden Investitionen
und Kenntnissen ist vor allem das mangelnde Vertrauen ein Grund dafür, dass Bürger:innen
KI-Anwendungen nicht ausreichend akzeptieren – so das Weißbuch.8
Vertrauenswürdige KI, die europäische Werte und Grundrechte schützt, klingt zunächst
einmal sinnvoll und zugleich abstrakt. Viele Fragen bleiben derzeit noch unbeantwortet:
Inwiefern misstrauen wir KI? Warum misstrauen wir? Was ist eigentlich Vertrauen? Wie

1
  vgl. Wilson, Christopher; van der Velden, Maja (2022): S. 6 f.
2
  OECD (2019).
3
  Europäische Kommission (2021).
4
  vgl. ebd.: S. 3.
5
  High-Level Expert Group on AI (2019).
6
  vgl. Wahlster, Wolfgang; Winterhalter, Christoph (2020): S. 11.
7
  vgl. Heesen, Jessica; Müller-Quade, Jörn; Wrobel, Stefan et al. (2021): S. 3.
8
  vgl. Europäische Kommission (2020): S. 10.

                                                1
entsteht es? Inwiefern ist Vertrauenswürdigkeit eine sinnvolle Maxime im Umgang mit KI-
Technologien? Antworten auf diese Fragen nähern wir uns schrittweise.

Misstrauen wir KI-Software tatsächlich?
Bevor wir uns dieser Frage zuwenden, müssen wir einen kleinen Umweg nehmen, der uns
im weiteren Verlauf nützlich sein wird: Was verstehen wir unter KI?
KI-Software kann ein Problem beziehungsweise eine Aufgabe ohne Eingriffe von Menschen
lösen. KI-Anwendungen bewältigen in vielen Bereichen unseres Alltags eigenständig
komplexe Aufgaben, indem sie Aspekte intelligenten Verhaltens nachahmen. Damit sie das
leisten können, sind sie auf Vorgaben von Menschen angewiesen und operieren mithilfe
komplexer Algorithmen. Derzeit dominieren Verfahren des maschinellen Lernens in der KI-
Entwicklung, daher ist häufig auch die Rede von lernenden Systemen.9 Die Europäische
Union greift auf eine sehr breite Definition von KI zurück, die sich nicht ausschließlich auf
lernende Systeme bezieht.10
Die Notwendigkeit, in vertrauenswürdige KI zu investieren und entsprechende
Regulierungen sowie Fördermaßnahmen zu finden, basiert auf einer bestimmten
Ausgangsthese: Nutzer:innen haben kein Vertrauen in KI-Systeme. In diesem
Zusammenhang setzen sich Fachliteratur und empirische Untersuchungen mit
„algorithmic aversion“, „algorithmic appreciation“ sowie dem „automation bias“
auseinander. Das Konzept der „algorithmic aversion“ geht davon aus, dass Menschen
algorithmischen Empfehlungen vor allem dann skeptisch begegnen, wenn damit eine
gewisse Unsicherheit verbunden ist, beispielsweise hinsichtlich der Datengrundlage, die
das System nutzt, um persönliche Präferenzen zu ermitteln. Literatur zu „algorithmic
appreciation“ schlüsselt hingegen auf, dass vor allem Laien Ratschläge, die Ergebnisse
algorithmischer Entscheidungsprozesse sind, mehr wertschätzen als Ratschläge von
Menschen. Der „automation bias“ erfasst, dass Menschen dazu neigen können,
Entscheidungen weniger zu hinterfragen, wenn sie das Ergebnis von Software sind.11
Der „D21 Digitalindex 21/22“ bringt Unsicherheiten und Sorgen im Zusammenhang mit
digitalen Anwendungen und Diensten im Allgemeinen zutage: 44 Prozent der über 2.000
Befragten trauen den Angeboten von Unternehmen nicht. Das Misstrauen ist bei jüngeren
und älteren Generationen geringer ausgeprägt als bei den „BabyboomerInnen“.12 Der
„Meinungsmonitor Künstliche Intelligenz [MeMo:KI]“, der 2020 in einer repräsentativen
Umfrage über 1.000 in Deutschland lebende Personen befragte, stellt fest, dass sie
algorithmische Empfehlungssysteme in vielen Bereichen als nützlich wahrnehmen.
Zugleich zeigt sich bei Nachfragen, dass 67 Prozent der Befragten algorithmische
Empfehlungssysteme als gar nicht oder nur wenig vertrauenswürdig erachten. Lediglich

9
  vgl. Plattform Lernende Systeme (o. D.): o. S.
10
   vgl. Europäische Kommission (2020): S. 19.
11
   vgl. Kieslich, Kimon; Došenović, Pero; Marcinkowski, Frank (2021): o. S.
12
   vgl. D21 e. V. (2022): S. 38.

                                                   2
sechs Prozent sind der Meinung, dass die Systeme vertrauenswürdig sind. Zudem
beurteilen nur 26 Prozent ihre Funktionsweise als nachvollziehbar und lediglich elf Prozent
gehen davon aus, dass die Systeme alle Nutzer:innen gleichbehandeln. Die Autor:innen des
Meinungsmonitors sehen in diesen und ähnlichen Zahlen umfassende Bedenken und
Zweifel daran, dass KI-Systeme ethischen Standards genügen. Sie betonen die
Notwendigkeit, ethische Leitlinien umzusetzen, wie sie die EU und auch die
Bundesregierung formulieren.13 Ähnliches geht aus einer Untersuchung des Bayerischen
Forschungsinstituts für Digitale Transformation (bidt) hervor, die 2019 ebenfalls 1.000
Personen in Deutschland befragte. Die Studienteilnehmer:innen wünschten sich
mehrheitlich eine stärkere Regulierung und Kontrolle von KI. Nur jede:r Siebte war an
dieser Stelle anderer Meinung.14
KI-Technologien erscheinen laut Umfragen einem großen Teil der deutschen Bevölkerung
als eher nicht vertrauenswürdig, da sie bestimmte Werte und Prinzipien wie
Nachvollziehbarkeit oder Gleichbehandlung als nicht erfüllt betrachten. Chancen für
Verbesserungen sehen sie in den Bereichen Regulierung und Kontrolle. Zugleich stufen die
Befragten KI-Technologien als nützlich ein und ihre Ergebnisse werden im Sinne des
„automation bias“ nicht immer hinterfragt. Dennoch scheint die Ausgangsthese belegt,
dass es an Vertrauen in KI-Systeme mangelt.

Was ist eigentlich Vertrauen? Und was hat es mit KI-Technologien zu
tun?
Zwischen der Erkenntnis, dass Vertrauen in KI-Systeme fehlt, und Maßnahmen, um
Vertrauen herzustellen, existiert eine Lücke um das Wissen, was Vertrauen eigentlich
ausmacht.
Der Soziologe Niklas Luhmann schreibt Vertrauen die Funktion zu, Komplexität zu
reduzieren. Vereinfacht gesagt sehen wir uns jeden Tag einer Vielzahl an Möglichkeiten
gegenüber, die nicht alle Realität werden können. Dadurch besteht eine gewisse Offenheit
dahingehend, was geschehen wird. Hinzu kommt, dass sich mit dem Verlauf der Zeit die
Möglichkeiten dessen verändern, was passieren kann und zwar dementsprechend, was
zuvor Wirklichkeit geworden ist. Um mit dieser Offenheit umzugehen, Erwartungen
ausbilden und Entscheidungen treffen zu können, müssen wir Komplexität reduzieren.
Dafür ist Vertrauen ein geeigneter Mechanismus.15 Um genauer zu bestimmen, was
Vertrauen kennzeichnet, greift Luhmann auf die Definition des Soziologen und Philosophen
Georg Simmel zurück und beschreibt den Mechanismus des Vertrauens als einen Zustand
zwischen Wissen und Nichtwissen, bei dem die vorhandenen Informationen überzogen
oder überdeutet werden. 16

13
   vgl. Kieslich, Kimon; Došenović, Pero; Marcinkowski, Frank (2021): o. S.
14
   vgl. Stürz, A. Roland; Stumpf, Christian; Mendel, Ulrike (2020): S. 6 f.
15
   vgl. Luhmann, Niklas (2014): S. 10 ff.
16
   vgl. ebd.: S. 32.

                                                   3
Nach diesem Verständnis erscheint der Begriff Vertrauen im Zusammenhang mit KI als
besonders geeignet, da es sich bei KI-Systemen – wie wir zuvor festgestellt haben – um
komplexe Systeme handelt oder solche, die mit komplexen Algorithmen arbeiten. Ihre
Funktionsweise ist aus zweierlei Gründen für uns Menschen nur schwer nachvollziehbar:
Erstens handelt es sich häufig um geschlossene Systeme, deren genaue Vorgehensweisen
nicht einmal für ihre Entwickler:innen nachvollziehbar sind. Zweitens verfügen die meisten
von uns nicht über das notwendige Wissen und ausreichende Fähigkeiten – oder sagen wir
Rechenkapazitäten –, um die komplexen Lösungswege vollständig zu durchdringen, die KI-
Systeme vollziehen. Demnach sind wir auf die Reduktion von Komplexität angewiesen.
Insofern scheint Vertrauen, das Komplexität reduziert, ein sinnvoller Ansatz zu sein.
Immer wieder wird Kritik daran laut, ob Vertrauenswürdigkeit tatsächlich ein geeignetes
Konzept ist. Schließlich basieren mündige Entscheidungen auf Wissen und auf rationalen
Reflexionen – so die Annahme.17 Wie zuvor begründet müssen wir jedoch im
Zusammenhang mit KI Komplexität reduzieren. Dieser Vorgang ist nicht mit „blindem
Vertrauen“ gleichzusetzen, das sich jeder Wissensgrundlage entzieht. Denn im skizzierten
Verständnis basiert Vertrauen auf einem bestimmten Grad an Wissen. Alles andere wäre
Hoffnung oder um es mit Luhmann zu sagen: „Der Hoffende faßt trotz Unsicherheit einfach
Zuversicht. Vertrauen reflektiert Kontingenz, Hoffnung eliminiert Kontingenz.“18 Mit
Hoffnung oder „blindem Vertrauen“ arbeiten teilweise große Tech-Unternehmen in ihren
öffentlichen Versprechen, wie etwa der Philosoph Nikolai Horn in einem Denkimpuls
beschreibt. Ihm zufolge können solche Versprechen die Übereinstimmung mit ethischen
Werten nicht garantieren.19 Versprechen sind demnach nicht der Weg, den wir einschlagen
können, um vertrauenswürdige KI zu schaffen, und auch nicht der Weg, um Vertrauen in KI-
Technologien zu fördern.20
Vertrauen ist in der Regel eine Eigenschaft, die Beziehungen zwischen Menschen
zugeschrieben wird. Mithilfe von Vertrauen können wir zusammenarbeiten.21 Es wird
schrittweise aufgebaut und erfordert ständige wechselseitige Interaktionen.22 Demnach
entwickelt sich Vertrauen in einem Prozess zwischen Menschen auf Basis eines Zustandes
zwischen Wissen und Nichtwissen. Dieses Verständnis von Vertrauen macht Vertrauen in
Bezug auf KI-Technologien nicht zu einem mangelhaften Konzept, sondern rückt vielmehr
die Akteur:innen und Beteiligten, die KI ersinnen, entwickeln, verkaufen, kaufen und
nutzen, in den Fokus. Vertrauen, das zwischen diesen Akteur:innen entstehen und
aufrechterhalten werden kann, ist die Grundlage für vertrauenswürdige KI.

17
   vgl. iRights.Lab (2022): um Minute 60 und folgende.
18
   Luhmann, Niklas (2014): S. 30.
19
   vgl. Horn, Nikolai (2021): o. S.
20
   vgl. High-Level Expert Group on AI (2019): S. 49.
21
   vgl. Tschopp, Marisa; Ruef, Marc; Monett, Dagmar: S. 331.
22
   vgl. Siau, Keng; Wang, Weiyu (2018): S. 47.

                                                  4
Wann beurteilen wir KI als vertrauenswürdig?
Das Wissen, auf dem Vertrauen zu einem gewissen Grad basiert, bezieht sich auf die
beteiligten Akteur:innen, aber auch auf die Anwendungen und ihre Eigenschaften.
Nutzer:innen machen die Vertrauenswürdigkeit einer Maschine beziehungsweise eines
automatisierten Systems unter anderem an ihrer Beschaffenheit und ihrer technologischen
Verwundbarkeit fest.23 Hierbei spielen vor allem Beurteilungen auf drei Ebenen eine Rolle.
Eine davon ist die der technologischen Eigenschaften. Diese Eigenschaften lassen sich über
Bewertungen beschreiben, die wiederum in drei Gruppen zusammengefasst werden
können. Eine davon ist die Gruppe der Leistung: Wir bewerten hierbei beispielsweise, wie
erfolgreich eine Anwendung eine Aufgabe löst. Hinzu kommen Abwägungen zum Prozess:
Ist der Lösungsweg in groben Zügen nachvollziehbar? Auch der Zweck ist für die
Beurteilung der technologischen Eigenschaften von Bedeutung und damit die Frage: Wofür
kommt eine Anwendung zum Einsatz?24
Neben den technologischen Eigenschaften spielen auf einer zweiten Ebene Eigenschaften
des Umfelds eine Rolle. Dazu zählen kulturelle Hintergründe wie der sozioökonomische
Status oder die Herkunft der Person, die Vertrauen zuschreibt. Darüber hinaus sind auch
institutionelle Faktoren bedeutsam, die eine strukturelle Sicherheit erzeugen. Dazu zählen
beispielsweise Verträge oder Vorschriften. Zuletzt fließen auf einer dritten Ebene
persönliche Eigenschaften ein und tragen dazu bei, ob wir eine Technologie als
vertrauenswürdig beurteilen oder nicht. Dies betrifft einerseits vor allem die Bereitschaft
und Fähigkeit, Vertrauen zu entwickeln. Andererseits sind damit die Bereitschaft und die
Fähigkeit der anderen Beteiligten wie Anbieter:innen und Gesetzgeber:innen gemeint,
Vertrauen zu erzeugen.25

Nicht alle Aspekte dieser drei Ebenen lassen sich beeinflussen und dementsprechend
regulieren. Das ist im Ansatz aus den Anforderungen an vertrauenswürdige KI ablesbar, die
die AI HLEG entwickelte: Vorrang menschlichen Handelns und menschlicher Aufsicht,
technische Robustheit und Sicherheit, Schutz der Privatsphäre und
Datenqualitätsmanagement, Transparenz, Vielfalt, Nichtdiskriminierung und Fairness,

23
   vgl. Tschopp, Marisa; Ruef, Marc; Monett, Dagmar: S. 333.
24
   vgl. Siau, Keng; Wang, Weiyu (2018): S. 50 f.
25
   vgl. ebd.

                                                  5
gesellschaftliches und ökologisches Wohlergehen sowie Rechenschaftspflicht.26 Es werden
vor allem technologische Eigenschaften wie technische Robustheit und Sicherheit
adressiert, aber auch Transparenz in Bezug auf die Funktionsweise von KI-Systemen. Das
Prinzip der Rechenschaftspflicht kann sich beispielsweise auf die Ebene der persönlichen
Eigenschaften auswirken, indem es als Bereitschaft gewertet wird, Rechenschaft
abzulegen. Voraussetzung ist, dass die beteiligten Akteur:innen dies entsprechend
adressieren und kommunizieren. Leitlinien wie die der AI HLEG oder auch Verordnungen
wie der entsprechende Entwurf der EU können zudem strukturelle Sicherheit anbieten,
sofern die Nutzer:innen sie dahingehend wahrnehmen und erfassen. Ist das der Fall, wirken
sie vertrauensfördernd auf der Ebene des Umfelds.

Wie entsteht vertrauenswürdige KI konkret?
Trotz der skizzierten existierenden Ansatzpunkte, um das Vertrauen in KI zu stärken, ist die
Umsetzung bis hierhin noch weitgehend unklar. In diesem Zusammenhang betreten
Ansätze zur Risikobewertung, Standardisierung und Zertifizierung die Bühne im Diskurs
über vertrauenswürdige KI.
Der Entwurf der KI-Verordnung der EU bezieht Risikobewertungen von KI-Technologien ein.
Das Ziel ist, auf dieser Grundlage feststellen zu können, welche KI-Systeme und
Anwendungseinsätze mit einem besonderen „Risiko der Schädigung, Beeinträchtigung
oder negativer Auswirkungen“27 einhergehen. Auf Grundlage dieser Bewertungen gilt es
dann, die Vorschriften entsprechend anzupassen. Der Entwurf sieht vier Risikostufen vor.
Ein unannehmbares Risiko liegt vor, wenn die Grundrechte der EU-Brüger:innen verletzt
werden. Diese Einstufung führt zu einem Verbot der Systeme. Hochrisiko-KI-Anwendungen
stellen „ein hohes Risiko für die Gesundheit und Sicherheit oder für die Grundrechte
natürlicher Personen“28 dar. Ein geringes Risiko ist gegeben, wenn beispielsweise eine
eindeutige Manipulationsgefahr besteht. In einem solchen Fall gelten besondere
Transparenzpflichten. Für alle anderen KI-Systeme wird ein minimales Risiko
angenommen. Sie müssen das geltende Recht beachten.29 Ein Kriterienkatalog soll es
ermöglichen, die Risiken einzelner Systeme genauer zu beurteilen.30
In Standardisierungs- und Zertifizierungsprozessen sehen zahlreiche Akteur:innen die
Möglichkeit, die Kriterien für vertrauenswürdige KI in der Praxis umzusetzen. Technische
Standards könnten konkrete Anforderungen an KI-Produkte und die Prozesse ihrer
Entstehung und ihres Einsatzes definieren. Im Rahmen einer Zertifizierung wäre es dann
möglich, zu überprüfen, ob die Standards eingehalten werden. Dem liegt die Annahme

26
   vgl. High-Level Expert Group on AI (2019): S. 17 f.
27
   Europäische Kommission (2021): S. 53.
28
   ebd.: S. 15.
29
   Europäische Kommission (2021/2): o. S.
30
   vgl. ebd.: S. 53.

                                                     6
zugrunde, dass dadurch Klarheit und Verlässlichkeit möglich werden. Das stelle wiederum
die Basis dar, um Vertrauen zu erzeugen.31
Die Politikwissenschaftlerin Leonie Beining beschreibt in diesem Kontext die
Herausforderung, dass KI-Technologien eine hohe Forschungs- und Entwicklungsdynamik
aufweisen, die aufwendige und eher starre Standardisierungs- und Zertifizierungsprozesse
nur schwer abbilden können. Zugleich sind KI-Systeme soziotechnische Systeme, deren
Auswirkungen davon abhängig sind, wer sie zu welchen Zwecken in welchen Kontexten
einsetzt. Damit entstehen hohe Ansprüche an Standardisierung und Zertifizierung. Es geht
nicht allein um die Frage, welche ethischen Werte wichtig sind, um Vertrauen in KI-
Anwendungen zu stärken und wie sie sich operationalisieren lassen. Hinzu kommt die
Frage, welche Werte in welcher Situation wichtig sind und wer sie in welcher Situation
zuschreibt. Dafür gibt es in unserer Gesellschaft bislang kein geteiltes Wertekonzept – so
Beining.32
Dies verdeutlicht, dass wir KI-Systeme nicht nur hinsichtlich ihrer technologischen
Eigenschaften bewerten dürfen, sondern dass die Ebene des Umfelds – hierbei vor allem
kulturelle Faktoren – sowie die Ebene persönlicher Eigenschaften ebenfalls eine Rolle
spielen. Sie werden in bisherigen Ansätzen noch nicht ausreichend einbezogen. Ähnliches
gilt für den Ansatz der Kritikalitätsbewertung im Entwurf der KI-Verordnung der EU. Sie
betont die technologische Ebene und die strukturellen Merkmale der Ebene des Umfelds
stärker als kulturelle Faktoren und lässt die Ebene der persönlichen Eigenschaften
weitgehend außer Acht.
Expert:innen der Plattform Lernende Systeme haben den Entwurf der KI-Verordnung
geprüft und schlagen im November 2021 in einem Whitepaper Ergänzungen vor. Sie setzen
teilweise an diesen unberücksichtigten Punkten an, die beim Entstehen von Vertrauen in
KI-Systeme bedeutsam sind. Dazu zählt die Empfehlung, die Risikobewertung immer auch
daran zu messen, ob es Handlungsalternativen und -freiheiten gibt, ob Nutzer:innen also
auf andere Systeme oder Angebote ausweichen können.33 Die Expert:innen schlagen
darüber hinaus vor, genauer zu regulieren, wie die Verantwortung über Haftungsregeln
aufgeteilt wird und dabei auch nach Kritikalität des Anwendungsgebiets zu
unterscheiden.34 Diese Empfehlungen setzen ebenfalls an der Ebene des Umfelds an und
können sich bei entsprechender Vermittlung auch auf der Ebene der persönlichen
Merkmale auswirken.
Der Theologe und Ethiker Peter Dabrock kritisiert im Zusammenhang mit dem
Kritikalitätskonzept und Ansätzen, die mithilfe dieses Konzepts KI zertifizieren wollen, dass
damit eine Sicherheit vorgegeben wird, die ohne parallellaufende nicht technische
Maßnahmen nicht gegeben ist. Damit verspricht das Konzept mehr als es halten kann,

31
   vgl. Beining, Leonie: S. 5.
32
   vgl. ebd.: S. 14 f.
33
   vgl. Heesen, Jessica; Müller-Quade, Jörn; Wrobel, Stefan et al. (2021): S. 18.
34
   vgl. ebd.: S. 16.

                                                    7
worunter vor allem die Nutzer:innen leiden.35 Die sich stellende Frage ist, ob Regulierung,
Standardisierung und Zertifizierung allein dabei unterstützen, vertrauenswürdige KI im
Sinne der skizzierten Ebenen zu stärken.

Wie schaffen wir die Voraussetzungen für vertrauenswürdige KI?
An dieser Stelle führt kein Weg daran vorbei, einen breiten öffentlichen Diskurs und
entsprechende Kompetenzmaßnahmen zu fordern, um breit geteilte Wertekonzepte zu
vertrauenswürdiger KI zu schaffen. Das ist die Voraussetzung, um einen Zustand zwischen
Nichtwissen und Wissen und damit Vertrauensbildungsprozesse zu ermöglichen. Es reicht
also nicht aus, Diskurse und Wissen zu KI-Systemen und ethischen Werten in diesem
Zusammenhang an Entscheidungsträger:innen in Wirtschaft, Wissenschaft und Politik zu
tragen.36 Es gilt vielmehr, die Nutzer:innen selbst stärker einzubeziehen sowie
zivilgesellschaftliche Organisationen in Prozesse der Standardisierung und Zertifizierung
einzubinden, um verschiedene Perspektiven berücksichtigen zu können.37 Auf diese Weise
kann eine Geschichte der Gegenseitigkeit entstehen, die auf geteiltem Wissen und
gemeinsamen Werten beruht. Die so entstehenden geteilten Sinnsysteme sind notwendig,
um Vertrauen auszubilden.38
Zugleich ist es unerlässlich, die evidenzbasierte Auseinandersetzung mit der Frage zu
stärken, inwiefern KI- Anwendungen ethische Werte und Grundrechte berühren. Die
Forschung zu diesem Themenfeld steht noch am Anfang.39 Eine KI-Verordnung sowie
Ansätze der Normierung und Zertifizierung, die zu vertrauenswürdiger KI beitragen sollen,
müssen auf Forschungsergebnissen gründen. Diese sind bislang nicht hinreichend.
Ähnliches gilt für die Bedingungen, unter denen wir KI-Anwendungen als vertrauenswürdig
beurteilen. Die Evidenzbasis ist unter anderem deshalb eingeschränkt, weil die Methoden,
mit denen Vertrauen gemessen wird, nicht vielfältig genug sind. Bislang bestehen unter
anderem große Abhängigkeiten von kleinen Stichproben und es fehlen
Langzeituntersuchungen. Oft haben Forscher:innen keinen Zugang zu relevanten
Systemen und ihren Einsatzkontexten. Viele Erkenntnisse beruhen auf kurzfristigen
experimentellen Forschungsdesigns. Dabei ist davon auszugehen, dass die Ausbildung von
Vertrauen in den experimentell angelegten Untersuchungen anders verläuft als im Alltag.
Dafür sind längerfristige Felduntersuchungen notwendig.40
Wenn wir das Konzept vertrauenswürdiger KI bemühen möchten, müssen wir vor allem den
prozesshaften und interaktiven Charakter stärker in den Blick nehmen, Erkenntnisse
darüber gewinnen und Maßnahmen ergreifen, die an kulturellen Faktoren und
Persönlichkeitsfaktoren ansetzen. Ein Anerkennen dieser Faktoren und damit auch eines

35
   vgl. ebd.: S. 32.
36
   vgl. Stürz, A. Roland; Stumpf, Christian; Mendel, Ulrike (2020): S. 6.
37
   vgl. Beining, Leonie: S. 16.
38
   vgl. Wilson, Christopher; van der Velden, Maja: S. 6.
39
   vgl. Cave, Stephen; Dihal, Kanta: o. S.
40
   vgl. Glikson, Ella; Woolley, Anita Williams: S. 2.

                                                     8
umfassenden Konzepts der vertrauenswürdigen KI erfordert ebenfalls Akzeptanz: Wir
müssen akzeptieren, dass wir Vertrauen nie komplett erfassen und beeinflussen können,
weil Vertrauen einen prozesshaften, interaktiven und unter anderem von persönlichen
Merkmalen abhängigen Charakter hat. Insofern bleibt vertrauenswürdige KI ein Begriff, der
nicht gänzlich erfassbar und operationalisierbar ist. Dennoch ist er nicht gleichzusetzen mit
„blindem Vertrauen“ – also Hoffnung –, sondern basiert auf einem bestimmten Maß an
Wissen. Umfängliche Informiertheit und rein rationale Beurteilungen können wir von
Nutzer:innen und dem Großteil der weiteren Akteur:innen – also von uns allen – angesichts
der Komplexität der Systeme und ihrer Einsatzkontexte nicht erwarten. Insofern ist die
Zuwendung zum Konzept der vertrauenswürdigen KI auch ein Eingeständnis, das
Komplexität reflektiert und anerkennt, aber nicht ignoriert. Wir gestehen uns ein, dass wir
nicht alles begreifen und begreifbar machen können. Zugleich wenden wir uns den
Möglichkeiten zu, Wissen zu erlangen und zu vergrößern. Das bedeutet ebenfalls, dass wir
mehr unternehmen müssen, um Erkenntnisse über soziokulturelle Kontexte zu erhalten, in
denen KI-Systeme entstehen und wirken, um dieses Wissen herunterzubrechen,
verständlich darzustellen und um Vertrauensbildungsprozesse im Rahmen dieses geteilten
Wissens zu stärken.
Wie so oft bleibt uns an dieser Stelle eine Analyse des Ist-Zustands, ein Hervorheben der
Bedeutsamkeit bestehender Ansätze hin zu vertrauenswürdiger KI und der mahnende
Verweis auf Leerstellen. Zumindest eine zentrale Erkenntnis gibt es: Das ist lediglich der
Startpunkt, von dem aus wir aufbrechen, um vertrauenswürdige KI-Systeme zu schaffen.

                                             9
Quellen
Beining, Leonie: Vertrauenswürdige KI durch Standards? Herausforderungen bei der
Standardisierung und Zertifizierung von Künstlicher Intelligenz. 2020. Hg. v. Stiftung Neue
Verantwortung. Online unter: https://www.stiftung-
nv.de/sites/default/files/herausforderungen-standardisierung-ki.pdf (18.03.2022).
Cave, Stephen; Dihal, Kanta: Standpunkt: Geschichte und Zukünfte Künstlicher Intelligenz.
2022. Online unter: https://background.tagesspiegel.de/digitalisierung/geschichte-und-
zukuenfte-kuenstlicher-intelligenz (18.03.2022).
D21 e. V. (Hg.): D21 Digitalindex 2021/2022. Jährliches Lagebild zur Digitalen Gesellschaft.
Vertiefungsthema: Digitale Nachhaltigkeit. 2022. Unter Mitarbeit von Kantar. Online unter:
https://initiatived21.de/app/uploads/2022/02/d21-digital-index-2021_2022.pdf
(18.03.2022).
Europäische Kommission: Vorschlag für eine Verordnung des Europäischen Parlaments
und des Rates zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (Gesetz
über Künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union,
COM(2021) 206 final. 2021. Hg. v. Publications Office of the EU. Online unter: https://eur-
lex.europa.eu/legal-content/DE/TXT/?uri=CELEX%3A52021PC0206 (18.03.2022).
Europäische Kommission: Neue Vorschriften für künstliche Intelligenz – Fragen und
Antworten. 2021/ 2. Online unter:
https://ec.europa.eu/commission/presscorner/detail/de/QANDA_21_1683#1 (18.03.2022).
Europäische Kommission: Weißbuch zur Künstlichen Intelligenz – ein europäisches
Konzept für Exzellenz und Vertrauen, COM(2020) 65 final. 2020. Hg. v. Publications Office of
the EU. Online unter: https://ec.europa.eu/info/sites/default/files/commission-white-
paper-artificial-intelligence-feb2020_de.pdf (18.03.2022).
Glikson, Ella; Woolley, Anita Williams: Human Trust in Artificial Intelligence: Review of
Empirical Research. 2020. In: ANNALS 14 (2), S. 627–660. DOI: 10.5465/annals.2018.0057.
Heesen, Jessica; Müller-Quade, Jörn; Wrobel, Stefan et al.: Kritikalität von KI-Systemen. Ein
notwendiger, aber nicht hinreichender Baustein für Vertrauenswürdigkeit. 2021. Hg. v.
Plattform Lernende Systeme. Online unter: https://www.plattform-lernende-
systeme.de/files/Downloads/Publikationen/AG3_WP_Kritikalitaet_von_KI-Systemen.pdf
(18.03.2022).
High-Level Expert Group on AI: Ethics Guidelines for Trustworthy Artificial Intelligence.
2019. Hg. v. Publications Office of the EU. Online unter:
https://op.europa.eu/en/publication-detail/-/publication/d3988569-0434-11ea-8c1f-
01aa75ed71a1 (18.03.2022).
Horn, Nikolai: Vertrauen, das Handlungsoptionen schafft, ohne naiv zu sein. 2021. In:
Philosophischer Zwischenruf, hg. v. Corporate Digital Responsibility (Online-Magazin).
Online unter: https://corporate-digital-responsibility.de/article/philosophischer-
zwischenruf-vertrauen/#_ftn1 (18.03.2022).

                                             10
iRights.Lab: Auftaktveranstaltung Zentrum für vertrauenswürdige KI (ZVKI). 2022. Youtube-
Kanal. Online unter: https://www.youtube.com/watch?v=FkVMJD6H0vg (18.03.2022).
Kieslich, Kimon; Došenović, Pero; Marcinkowski, Frank: Algorithmische
Empfehlungssysteme. Was denkt die deutsche Bevölkerung über den Einsatz und die
Gestaltung algorithmischer Empfehlungssysteme? 2021. Factsheet Nr. 5 des
Meinungsmonitor Künstliche Intelligenz. Online unter: https://www.cais.nrw/wp-94fa4-
content/uploads/2021/05/Factsheet-5-KI-Recommender.pdf (18.03.2022).
Landes, Miriam; Steiner, Eberhard; Utz, Tatjana (Hg.): Kreativität und Innovation in
Organisationen. Impulse aus Innovationsforschung, Management, Kunst und Psychologie.
2022. Berlin, Heidelberg: Springer.
Luhmann, Niklas: Vertrauen. Ein Mechanismus der Reduktion sozialer Komplexität. 2014.
Konstanz und München: UVK Verlagsgesellschaft mbH.
OECD: Recommendation of the Council on Artificial Intelligence, OECD/LEGAL/0449. 2019.
Online unter: https://legalinstruments.oecd.org/api/print?ids=648&lang=en (18.03.2022).
Plattform Lernende Systeme: Glossar. Künstliche Intelligenz (KI). O. D. Online unter:
https://www.plattform-lernende-systeme.de/glossar.html (18.03.2022).
Siau, Keng; Wang, Weiyu: Building Trust in Artificial Intelligence, Machine Learning, and
Robotics. Trust is hard to come by. 2018. In: Cutter Business Technology Journal 31 (2), S.
47-53. Online unter: https://www.cutter.com/article/building-trust-artificial-intelligence-
machine-learning-and-robotics-498981 (18.03.2022).
Stürz, A. Roland; Stumpf, Christian; Mendel, Ulrike: Künstliche Intelligenz verstehen und
gestalten. Ergebnisse und Implikationen einer bidt-Kurzbefragung in Deutschland. 2020.
Hg. v. bidt – Bayerisches Forschungsinstitut für Digitale Transformation. Online unter:
https://www.bidt.digital/wp-content/uploads/2020/06/bidt_KI-Studie_Juni-2020.pdf
(18.03.2022).
Tschopp, Marisa; Ruef, Marc; Monett, Dagmar: Vertrauen Sie KI? Einblicke in das Thema
Künstliche Intelligenz und warum Vertrauen eine Schlüsselrolle im Umgang mit neuen
Technologien spielt. 2022. In: Miriam Landes, Eberhard Steiner und Tatjana Utz (Hg.):
Kreativität und Innovation in Organisationen. Impulse aus Innovationsforschung,
Management, Kunst und Psychologie. Berlin, Heidelberg: Springer, S. 319–346.
Wahlster, Wolfgang; Winterhalter, Christoph (Hg.): Deutsche Normierungsroadmap
Künstliche Intelligenz. 2020. Online unter:
https://www.din.de/resource/blob/772438/6b5ac6680543eff9fe372603514be3e6/normung
sroadmap-ki-data.pdf (18.03.2022).
Wilson, Christopher; van der Velden, Maja: Sustainable AI: An integrated model to guide
public sector decision-making

                                             11
Impressum
Inhaltlich Verantwortlicher i. S. d. § 55 Abs. 2 RStV:
Philipp Otto
iRights.Lab GmbH
Oranienstr. 185
D-10999 Berlin
Telefon: +49 (0)30 40 36 77 230
Fax: +49 (0)30 40 36 77 260
E-Mail: zvki@irights-lab.de
Geschäftsführer:in: Philipp Otto, Dr. Wiebke Glässer
Registergericht: Amtsgericht Berlin-Charlottenburg
Registernummer: HRB 185640 B
Finanzamt für Körperschaften II
USt-IdNr.: DE311181302
Projektleitung: Philipp Otto
Projektkoordination: Verena Till
Autorin: Jaana Müller-Brehm
Inhaltliche Mitarbeit: Michael Puntschuh, Paul Ritzka, Verena Till
Lektorat: text|struktur
Dieses Werk steht unter Creative Commons Lizenz CC BY-SA 4.0
https://creativecommons.org/licenses/by-sa/4.0/deed.de.
Projektpartner:innen ZVKI: iRights.Lab, Fraunhofer AISEC, Fraunhofer IAIS, Freie Universität
Berlin
Gefördert durch: Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und
Verbraucherschutz (BMUV)
Das Projekt ZVKI wird vom unabhängigen Think Tank iRights.Lab verantwortet und
durchgeführt. Das iRights.Lab entwickelt Strategien und praktische Lösungen, um die
Veränderungen in der digitalen Welt vorteilhaft zu gestalten. Wir unterstützen öffentliche
Einrichtungen, Stiftungen, Unternehmen, Wissenschaft und Politik dabei, die
Herausforderungen der Digitalisierung zu meistern und die vielschichtigen Potenziale
effektiv und positiv zu nutzen.
Weitere Informationen über das iRights.Lab finden Sie unter www.irights-lab.de.

                                               12
Sie können auch lesen