Warum sollte KI vertrauenswürdig sein? - ZVKI
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
Warum sollte KI vertrauenswürdig sein? In den Debatten um Künstliche Intelligenz (KI) tauchen immer häufiger Begriffe auf, die eine Verbindung von KI-Technologien zu Menschen und Gesellschaften herstellen. Dabei ist die Rede von Gemeinwohlorientierung, von Menschenzentrierung und vor allem von Vertrauen. Vertrauenswürdige KI ist in den politischen Diskursen um KI-Systeme zu einer besonders häufig bemühten Prämisse1 herangewachsen, wie etwa in den „OECD AI Principles“2 von 2019 oder im Entwurf der KI-Verordnung der Europäischen Union (EU)3 von 2021. Letztere hat das Ziel, sichere und vertrauenswürdige KI-Systeme zu gewährleisten, um möglichen Risiken zu begegnen, die mit der Entwicklung, dem Einsatz und der Nutzung solcher Technologien verbunden sein können.4 Die KI-Verordnung der EU bezieht sich auf die „Ethik-Leitlinien für eine vertrauenswürdige KI“5, die die Hochrangige Expertengruppe für Künstliche Intelligenz (AI HLEG) zuvor entwickelt hat. Zahlreiche Fachbeiträge, wissenschaftliche Auseinandersetzungen und Policy Paper ziehen diese Leitlinien heran, um zu begründen, warum Vertrauen in KI notwendig ist und wie sich die durch die AI HLEG erarbeiteten Kriterien umsetzen lassen. Ein Beispiel dafür ist die „Deutsche Normungsroadmap Künstliche Intelligenz“, die in den Leitlinien und ihrer Verwirklichung die Chance sieht, dass die deutsche Wirtschaft eine Vorreiterrolle einnimmt, sofern sie es schafft, europäische Wertmaßstäbe in KI- Anwendungen umzusetzen.6 Zugleich gilt es, Überregulierung zu vermeiden und Innovationen zu fördern.7 Das „Weißbuch zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen“ hält fest, dass europäische Bürger:innen unter anderem aufgrund von Informationsasymmetrien bei algorithmischen Entscheidungsprozessen um ihre Rechte und Sicherheit fürchten. Deshalb definiert die KI-Strategie von 2020 die Notwendigkeit, EU- Bürger:innen vor unbeabsichtigten Auswirkungen oder Missbrauch zu schützen und dafür zu sorgen, dass sie ihre Grundrechte wahrnehmen können. Neben fehlenden Investitionen und Kenntnissen ist vor allem das mangelnde Vertrauen ein Grund dafür, dass Bürger:innen KI-Anwendungen nicht ausreichend akzeptieren – so das Weißbuch.8 Vertrauenswürdige KI, die europäische Werte und Grundrechte schützt, klingt zunächst einmal sinnvoll und zugleich abstrakt. Viele Fragen bleiben derzeit noch unbeantwortet: Inwiefern misstrauen wir KI? Warum misstrauen wir? Was ist eigentlich Vertrauen? Wie 1 vgl. Wilson, Christopher; van der Velden, Maja (2022): S. 6 f. 2 OECD (2019). 3 Europäische Kommission (2021). 4 vgl. ebd.: S. 3. 5 High-Level Expert Group on AI (2019). 6 vgl. Wahlster, Wolfgang; Winterhalter, Christoph (2020): S. 11. 7 vgl. Heesen, Jessica; Müller-Quade, Jörn; Wrobel, Stefan et al. (2021): S. 3. 8 vgl. Europäische Kommission (2020): S. 10. 1
entsteht es? Inwiefern ist Vertrauenswürdigkeit eine sinnvolle Maxime im Umgang mit KI- Technologien? Antworten auf diese Fragen nähern wir uns schrittweise. Misstrauen wir KI-Software tatsächlich? Bevor wir uns dieser Frage zuwenden, müssen wir einen kleinen Umweg nehmen, der uns im weiteren Verlauf nützlich sein wird: Was verstehen wir unter KI? KI-Software kann ein Problem beziehungsweise eine Aufgabe ohne Eingriffe von Menschen lösen. KI-Anwendungen bewältigen in vielen Bereichen unseres Alltags eigenständig komplexe Aufgaben, indem sie Aspekte intelligenten Verhaltens nachahmen. Damit sie das leisten können, sind sie auf Vorgaben von Menschen angewiesen und operieren mithilfe komplexer Algorithmen. Derzeit dominieren Verfahren des maschinellen Lernens in der KI- Entwicklung, daher ist häufig auch die Rede von lernenden Systemen.9 Die Europäische Union greift auf eine sehr breite Definition von KI zurück, die sich nicht ausschließlich auf lernende Systeme bezieht.10 Die Notwendigkeit, in vertrauenswürdige KI zu investieren und entsprechende Regulierungen sowie Fördermaßnahmen zu finden, basiert auf einer bestimmten Ausgangsthese: Nutzer:innen haben kein Vertrauen in KI-Systeme. In diesem Zusammenhang setzen sich Fachliteratur und empirische Untersuchungen mit „algorithmic aversion“, „algorithmic appreciation“ sowie dem „automation bias“ auseinander. Das Konzept der „algorithmic aversion“ geht davon aus, dass Menschen algorithmischen Empfehlungen vor allem dann skeptisch begegnen, wenn damit eine gewisse Unsicherheit verbunden ist, beispielsweise hinsichtlich der Datengrundlage, die das System nutzt, um persönliche Präferenzen zu ermitteln. Literatur zu „algorithmic appreciation“ schlüsselt hingegen auf, dass vor allem Laien Ratschläge, die Ergebnisse algorithmischer Entscheidungsprozesse sind, mehr wertschätzen als Ratschläge von Menschen. Der „automation bias“ erfasst, dass Menschen dazu neigen können, Entscheidungen weniger zu hinterfragen, wenn sie das Ergebnis von Software sind.11 Der „D21 Digitalindex 21/22“ bringt Unsicherheiten und Sorgen im Zusammenhang mit digitalen Anwendungen und Diensten im Allgemeinen zutage: 44 Prozent der über 2.000 Befragten trauen den Angeboten von Unternehmen nicht. Das Misstrauen ist bei jüngeren und älteren Generationen geringer ausgeprägt als bei den „BabyboomerInnen“.12 Der „Meinungsmonitor Künstliche Intelligenz [MeMo:KI]“, der 2020 in einer repräsentativen Umfrage über 1.000 in Deutschland lebende Personen befragte, stellt fest, dass sie algorithmische Empfehlungssysteme in vielen Bereichen als nützlich wahrnehmen. Zugleich zeigt sich bei Nachfragen, dass 67 Prozent der Befragten algorithmische Empfehlungssysteme als gar nicht oder nur wenig vertrauenswürdig erachten. Lediglich 9 vgl. Plattform Lernende Systeme (o. D.): o. S. 10 vgl. Europäische Kommission (2020): S. 19. 11 vgl. Kieslich, Kimon; Došenović, Pero; Marcinkowski, Frank (2021): o. S. 12 vgl. D21 e. V. (2022): S. 38. 2
sechs Prozent sind der Meinung, dass die Systeme vertrauenswürdig sind. Zudem beurteilen nur 26 Prozent ihre Funktionsweise als nachvollziehbar und lediglich elf Prozent gehen davon aus, dass die Systeme alle Nutzer:innen gleichbehandeln. Die Autor:innen des Meinungsmonitors sehen in diesen und ähnlichen Zahlen umfassende Bedenken und Zweifel daran, dass KI-Systeme ethischen Standards genügen. Sie betonen die Notwendigkeit, ethische Leitlinien umzusetzen, wie sie die EU und auch die Bundesregierung formulieren.13 Ähnliches geht aus einer Untersuchung des Bayerischen Forschungsinstituts für Digitale Transformation (bidt) hervor, die 2019 ebenfalls 1.000 Personen in Deutschland befragte. Die Studienteilnehmer:innen wünschten sich mehrheitlich eine stärkere Regulierung und Kontrolle von KI. Nur jede:r Siebte war an dieser Stelle anderer Meinung.14 KI-Technologien erscheinen laut Umfragen einem großen Teil der deutschen Bevölkerung als eher nicht vertrauenswürdig, da sie bestimmte Werte und Prinzipien wie Nachvollziehbarkeit oder Gleichbehandlung als nicht erfüllt betrachten. Chancen für Verbesserungen sehen sie in den Bereichen Regulierung und Kontrolle. Zugleich stufen die Befragten KI-Technologien als nützlich ein und ihre Ergebnisse werden im Sinne des „automation bias“ nicht immer hinterfragt. Dennoch scheint die Ausgangsthese belegt, dass es an Vertrauen in KI-Systeme mangelt. Was ist eigentlich Vertrauen? Und was hat es mit KI-Technologien zu tun? Zwischen der Erkenntnis, dass Vertrauen in KI-Systeme fehlt, und Maßnahmen, um Vertrauen herzustellen, existiert eine Lücke um das Wissen, was Vertrauen eigentlich ausmacht. Der Soziologe Niklas Luhmann schreibt Vertrauen die Funktion zu, Komplexität zu reduzieren. Vereinfacht gesagt sehen wir uns jeden Tag einer Vielzahl an Möglichkeiten gegenüber, die nicht alle Realität werden können. Dadurch besteht eine gewisse Offenheit dahingehend, was geschehen wird. Hinzu kommt, dass sich mit dem Verlauf der Zeit die Möglichkeiten dessen verändern, was passieren kann und zwar dementsprechend, was zuvor Wirklichkeit geworden ist. Um mit dieser Offenheit umzugehen, Erwartungen ausbilden und Entscheidungen treffen zu können, müssen wir Komplexität reduzieren. Dafür ist Vertrauen ein geeigneter Mechanismus.15 Um genauer zu bestimmen, was Vertrauen kennzeichnet, greift Luhmann auf die Definition des Soziologen und Philosophen Georg Simmel zurück und beschreibt den Mechanismus des Vertrauens als einen Zustand zwischen Wissen und Nichtwissen, bei dem die vorhandenen Informationen überzogen oder überdeutet werden. 16 13 vgl. Kieslich, Kimon; Došenović, Pero; Marcinkowski, Frank (2021): o. S. 14 vgl. Stürz, A. Roland; Stumpf, Christian; Mendel, Ulrike (2020): S. 6 f. 15 vgl. Luhmann, Niklas (2014): S. 10 ff. 16 vgl. ebd.: S. 32. 3
Nach diesem Verständnis erscheint der Begriff Vertrauen im Zusammenhang mit KI als besonders geeignet, da es sich bei KI-Systemen – wie wir zuvor festgestellt haben – um komplexe Systeme handelt oder solche, die mit komplexen Algorithmen arbeiten. Ihre Funktionsweise ist aus zweierlei Gründen für uns Menschen nur schwer nachvollziehbar: Erstens handelt es sich häufig um geschlossene Systeme, deren genaue Vorgehensweisen nicht einmal für ihre Entwickler:innen nachvollziehbar sind. Zweitens verfügen die meisten von uns nicht über das notwendige Wissen und ausreichende Fähigkeiten – oder sagen wir Rechenkapazitäten –, um die komplexen Lösungswege vollständig zu durchdringen, die KI- Systeme vollziehen. Demnach sind wir auf die Reduktion von Komplexität angewiesen. Insofern scheint Vertrauen, das Komplexität reduziert, ein sinnvoller Ansatz zu sein. Immer wieder wird Kritik daran laut, ob Vertrauenswürdigkeit tatsächlich ein geeignetes Konzept ist. Schließlich basieren mündige Entscheidungen auf Wissen und auf rationalen Reflexionen – so die Annahme.17 Wie zuvor begründet müssen wir jedoch im Zusammenhang mit KI Komplexität reduzieren. Dieser Vorgang ist nicht mit „blindem Vertrauen“ gleichzusetzen, das sich jeder Wissensgrundlage entzieht. Denn im skizzierten Verständnis basiert Vertrauen auf einem bestimmten Grad an Wissen. Alles andere wäre Hoffnung oder um es mit Luhmann zu sagen: „Der Hoffende faßt trotz Unsicherheit einfach Zuversicht. Vertrauen reflektiert Kontingenz, Hoffnung eliminiert Kontingenz.“18 Mit Hoffnung oder „blindem Vertrauen“ arbeiten teilweise große Tech-Unternehmen in ihren öffentlichen Versprechen, wie etwa der Philosoph Nikolai Horn in einem Denkimpuls beschreibt. Ihm zufolge können solche Versprechen die Übereinstimmung mit ethischen Werten nicht garantieren.19 Versprechen sind demnach nicht der Weg, den wir einschlagen können, um vertrauenswürdige KI zu schaffen, und auch nicht der Weg, um Vertrauen in KI- Technologien zu fördern.20 Vertrauen ist in der Regel eine Eigenschaft, die Beziehungen zwischen Menschen zugeschrieben wird. Mithilfe von Vertrauen können wir zusammenarbeiten.21 Es wird schrittweise aufgebaut und erfordert ständige wechselseitige Interaktionen.22 Demnach entwickelt sich Vertrauen in einem Prozess zwischen Menschen auf Basis eines Zustandes zwischen Wissen und Nichtwissen. Dieses Verständnis von Vertrauen macht Vertrauen in Bezug auf KI-Technologien nicht zu einem mangelhaften Konzept, sondern rückt vielmehr die Akteur:innen und Beteiligten, die KI ersinnen, entwickeln, verkaufen, kaufen und nutzen, in den Fokus. Vertrauen, das zwischen diesen Akteur:innen entstehen und aufrechterhalten werden kann, ist die Grundlage für vertrauenswürdige KI. 17 vgl. iRights.Lab (2022): um Minute 60 und folgende. 18 Luhmann, Niklas (2014): S. 30. 19 vgl. Horn, Nikolai (2021): o. S. 20 vgl. High-Level Expert Group on AI (2019): S. 49. 21 vgl. Tschopp, Marisa; Ruef, Marc; Monett, Dagmar: S. 331. 22 vgl. Siau, Keng; Wang, Weiyu (2018): S. 47. 4
Wann beurteilen wir KI als vertrauenswürdig? Das Wissen, auf dem Vertrauen zu einem gewissen Grad basiert, bezieht sich auf die beteiligten Akteur:innen, aber auch auf die Anwendungen und ihre Eigenschaften. Nutzer:innen machen die Vertrauenswürdigkeit einer Maschine beziehungsweise eines automatisierten Systems unter anderem an ihrer Beschaffenheit und ihrer technologischen Verwundbarkeit fest.23 Hierbei spielen vor allem Beurteilungen auf drei Ebenen eine Rolle. Eine davon ist die der technologischen Eigenschaften. Diese Eigenschaften lassen sich über Bewertungen beschreiben, die wiederum in drei Gruppen zusammengefasst werden können. Eine davon ist die Gruppe der Leistung: Wir bewerten hierbei beispielsweise, wie erfolgreich eine Anwendung eine Aufgabe löst. Hinzu kommen Abwägungen zum Prozess: Ist der Lösungsweg in groben Zügen nachvollziehbar? Auch der Zweck ist für die Beurteilung der technologischen Eigenschaften von Bedeutung und damit die Frage: Wofür kommt eine Anwendung zum Einsatz?24 Neben den technologischen Eigenschaften spielen auf einer zweiten Ebene Eigenschaften des Umfelds eine Rolle. Dazu zählen kulturelle Hintergründe wie der sozioökonomische Status oder die Herkunft der Person, die Vertrauen zuschreibt. Darüber hinaus sind auch institutionelle Faktoren bedeutsam, die eine strukturelle Sicherheit erzeugen. Dazu zählen beispielsweise Verträge oder Vorschriften. Zuletzt fließen auf einer dritten Ebene persönliche Eigenschaften ein und tragen dazu bei, ob wir eine Technologie als vertrauenswürdig beurteilen oder nicht. Dies betrifft einerseits vor allem die Bereitschaft und Fähigkeit, Vertrauen zu entwickeln. Andererseits sind damit die Bereitschaft und die Fähigkeit der anderen Beteiligten wie Anbieter:innen und Gesetzgeber:innen gemeint, Vertrauen zu erzeugen.25 Nicht alle Aspekte dieser drei Ebenen lassen sich beeinflussen und dementsprechend regulieren. Das ist im Ansatz aus den Anforderungen an vertrauenswürdige KI ablesbar, die die AI HLEG entwickelte: Vorrang menschlichen Handelns und menschlicher Aufsicht, technische Robustheit und Sicherheit, Schutz der Privatsphäre und Datenqualitätsmanagement, Transparenz, Vielfalt, Nichtdiskriminierung und Fairness, 23 vgl. Tschopp, Marisa; Ruef, Marc; Monett, Dagmar: S. 333. 24 vgl. Siau, Keng; Wang, Weiyu (2018): S. 50 f. 25 vgl. ebd. 5
gesellschaftliches und ökologisches Wohlergehen sowie Rechenschaftspflicht.26 Es werden vor allem technologische Eigenschaften wie technische Robustheit und Sicherheit adressiert, aber auch Transparenz in Bezug auf die Funktionsweise von KI-Systemen. Das Prinzip der Rechenschaftspflicht kann sich beispielsweise auf die Ebene der persönlichen Eigenschaften auswirken, indem es als Bereitschaft gewertet wird, Rechenschaft abzulegen. Voraussetzung ist, dass die beteiligten Akteur:innen dies entsprechend adressieren und kommunizieren. Leitlinien wie die der AI HLEG oder auch Verordnungen wie der entsprechende Entwurf der EU können zudem strukturelle Sicherheit anbieten, sofern die Nutzer:innen sie dahingehend wahrnehmen und erfassen. Ist das der Fall, wirken sie vertrauensfördernd auf der Ebene des Umfelds. Wie entsteht vertrauenswürdige KI konkret? Trotz der skizzierten existierenden Ansatzpunkte, um das Vertrauen in KI zu stärken, ist die Umsetzung bis hierhin noch weitgehend unklar. In diesem Zusammenhang betreten Ansätze zur Risikobewertung, Standardisierung und Zertifizierung die Bühne im Diskurs über vertrauenswürdige KI. Der Entwurf der KI-Verordnung der EU bezieht Risikobewertungen von KI-Technologien ein. Das Ziel ist, auf dieser Grundlage feststellen zu können, welche KI-Systeme und Anwendungseinsätze mit einem besonderen „Risiko der Schädigung, Beeinträchtigung oder negativer Auswirkungen“27 einhergehen. Auf Grundlage dieser Bewertungen gilt es dann, die Vorschriften entsprechend anzupassen. Der Entwurf sieht vier Risikostufen vor. Ein unannehmbares Risiko liegt vor, wenn die Grundrechte der EU-Brüger:innen verletzt werden. Diese Einstufung führt zu einem Verbot der Systeme. Hochrisiko-KI-Anwendungen stellen „ein hohes Risiko für die Gesundheit und Sicherheit oder für die Grundrechte natürlicher Personen“28 dar. Ein geringes Risiko ist gegeben, wenn beispielsweise eine eindeutige Manipulationsgefahr besteht. In einem solchen Fall gelten besondere Transparenzpflichten. Für alle anderen KI-Systeme wird ein minimales Risiko angenommen. Sie müssen das geltende Recht beachten.29 Ein Kriterienkatalog soll es ermöglichen, die Risiken einzelner Systeme genauer zu beurteilen.30 In Standardisierungs- und Zertifizierungsprozessen sehen zahlreiche Akteur:innen die Möglichkeit, die Kriterien für vertrauenswürdige KI in der Praxis umzusetzen. Technische Standards könnten konkrete Anforderungen an KI-Produkte und die Prozesse ihrer Entstehung und ihres Einsatzes definieren. Im Rahmen einer Zertifizierung wäre es dann möglich, zu überprüfen, ob die Standards eingehalten werden. Dem liegt die Annahme 26 vgl. High-Level Expert Group on AI (2019): S. 17 f. 27 Europäische Kommission (2021): S. 53. 28 ebd.: S. 15. 29 Europäische Kommission (2021/2): o. S. 30 vgl. ebd.: S. 53. 6
zugrunde, dass dadurch Klarheit und Verlässlichkeit möglich werden. Das stelle wiederum die Basis dar, um Vertrauen zu erzeugen.31 Die Politikwissenschaftlerin Leonie Beining beschreibt in diesem Kontext die Herausforderung, dass KI-Technologien eine hohe Forschungs- und Entwicklungsdynamik aufweisen, die aufwendige und eher starre Standardisierungs- und Zertifizierungsprozesse nur schwer abbilden können. Zugleich sind KI-Systeme soziotechnische Systeme, deren Auswirkungen davon abhängig sind, wer sie zu welchen Zwecken in welchen Kontexten einsetzt. Damit entstehen hohe Ansprüche an Standardisierung und Zertifizierung. Es geht nicht allein um die Frage, welche ethischen Werte wichtig sind, um Vertrauen in KI- Anwendungen zu stärken und wie sie sich operationalisieren lassen. Hinzu kommt die Frage, welche Werte in welcher Situation wichtig sind und wer sie in welcher Situation zuschreibt. Dafür gibt es in unserer Gesellschaft bislang kein geteiltes Wertekonzept – so Beining.32 Dies verdeutlicht, dass wir KI-Systeme nicht nur hinsichtlich ihrer technologischen Eigenschaften bewerten dürfen, sondern dass die Ebene des Umfelds – hierbei vor allem kulturelle Faktoren – sowie die Ebene persönlicher Eigenschaften ebenfalls eine Rolle spielen. Sie werden in bisherigen Ansätzen noch nicht ausreichend einbezogen. Ähnliches gilt für den Ansatz der Kritikalitätsbewertung im Entwurf der KI-Verordnung der EU. Sie betont die technologische Ebene und die strukturellen Merkmale der Ebene des Umfelds stärker als kulturelle Faktoren und lässt die Ebene der persönlichen Eigenschaften weitgehend außer Acht. Expert:innen der Plattform Lernende Systeme haben den Entwurf der KI-Verordnung geprüft und schlagen im November 2021 in einem Whitepaper Ergänzungen vor. Sie setzen teilweise an diesen unberücksichtigten Punkten an, die beim Entstehen von Vertrauen in KI-Systeme bedeutsam sind. Dazu zählt die Empfehlung, die Risikobewertung immer auch daran zu messen, ob es Handlungsalternativen und -freiheiten gibt, ob Nutzer:innen also auf andere Systeme oder Angebote ausweichen können.33 Die Expert:innen schlagen darüber hinaus vor, genauer zu regulieren, wie die Verantwortung über Haftungsregeln aufgeteilt wird und dabei auch nach Kritikalität des Anwendungsgebiets zu unterscheiden.34 Diese Empfehlungen setzen ebenfalls an der Ebene des Umfelds an und können sich bei entsprechender Vermittlung auch auf der Ebene der persönlichen Merkmale auswirken. Der Theologe und Ethiker Peter Dabrock kritisiert im Zusammenhang mit dem Kritikalitätskonzept und Ansätzen, die mithilfe dieses Konzepts KI zertifizieren wollen, dass damit eine Sicherheit vorgegeben wird, die ohne parallellaufende nicht technische Maßnahmen nicht gegeben ist. Damit verspricht das Konzept mehr als es halten kann, 31 vgl. Beining, Leonie: S. 5. 32 vgl. ebd.: S. 14 f. 33 vgl. Heesen, Jessica; Müller-Quade, Jörn; Wrobel, Stefan et al. (2021): S. 18. 34 vgl. ebd.: S. 16. 7
worunter vor allem die Nutzer:innen leiden.35 Die sich stellende Frage ist, ob Regulierung, Standardisierung und Zertifizierung allein dabei unterstützen, vertrauenswürdige KI im Sinne der skizzierten Ebenen zu stärken. Wie schaffen wir die Voraussetzungen für vertrauenswürdige KI? An dieser Stelle führt kein Weg daran vorbei, einen breiten öffentlichen Diskurs und entsprechende Kompetenzmaßnahmen zu fordern, um breit geteilte Wertekonzepte zu vertrauenswürdiger KI zu schaffen. Das ist die Voraussetzung, um einen Zustand zwischen Nichtwissen und Wissen und damit Vertrauensbildungsprozesse zu ermöglichen. Es reicht also nicht aus, Diskurse und Wissen zu KI-Systemen und ethischen Werten in diesem Zusammenhang an Entscheidungsträger:innen in Wirtschaft, Wissenschaft und Politik zu tragen.36 Es gilt vielmehr, die Nutzer:innen selbst stärker einzubeziehen sowie zivilgesellschaftliche Organisationen in Prozesse der Standardisierung und Zertifizierung einzubinden, um verschiedene Perspektiven berücksichtigen zu können.37 Auf diese Weise kann eine Geschichte der Gegenseitigkeit entstehen, die auf geteiltem Wissen und gemeinsamen Werten beruht. Die so entstehenden geteilten Sinnsysteme sind notwendig, um Vertrauen auszubilden.38 Zugleich ist es unerlässlich, die evidenzbasierte Auseinandersetzung mit der Frage zu stärken, inwiefern KI- Anwendungen ethische Werte und Grundrechte berühren. Die Forschung zu diesem Themenfeld steht noch am Anfang.39 Eine KI-Verordnung sowie Ansätze der Normierung und Zertifizierung, die zu vertrauenswürdiger KI beitragen sollen, müssen auf Forschungsergebnissen gründen. Diese sind bislang nicht hinreichend. Ähnliches gilt für die Bedingungen, unter denen wir KI-Anwendungen als vertrauenswürdig beurteilen. Die Evidenzbasis ist unter anderem deshalb eingeschränkt, weil die Methoden, mit denen Vertrauen gemessen wird, nicht vielfältig genug sind. Bislang bestehen unter anderem große Abhängigkeiten von kleinen Stichproben und es fehlen Langzeituntersuchungen. Oft haben Forscher:innen keinen Zugang zu relevanten Systemen und ihren Einsatzkontexten. Viele Erkenntnisse beruhen auf kurzfristigen experimentellen Forschungsdesigns. Dabei ist davon auszugehen, dass die Ausbildung von Vertrauen in den experimentell angelegten Untersuchungen anders verläuft als im Alltag. Dafür sind längerfristige Felduntersuchungen notwendig.40 Wenn wir das Konzept vertrauenswürdiger KI bemühen möchten, müssen wir vor allem den prozesshaften und interaktiven Charakter stärker in den Blick nehmen, Erkenntnisse darüber gewinnen und Maßnahmen ergreifen, die an kulturellen Faktoren und Persönlichkeitsfaktoren ansetzen. Ein Anerkennen dieser Faktoren und damit auch eines 35 vgl. ebd.: S. 32. 36 vgl. Stürz, A. Roland; Stumpf, Christian; Mendel, Ulrike (2020): S. 6. 37 vgl. Beining, Leonie: S. 16. 38 vgl. Wilson, Christopher; van der Velden, Maja: S. 6. 39 vgl. Cave, Stephen; Dihal, Kanta: o. S. 40 vgl. Glikson, Ella; Woolley, Anita Williams: S. 2. 8
umfassenden Konzepts der vertrauenswürdigen KI erfordert ebenfalls Akzeptanz: Wir müssen akzeptieren, dass wir Vertrauen nie komplett erfassen und beeinflussen können, weil Vertrauen einen prozesshaften, interaktiven und unter anderem von persönlichen Merkmalen abhängigen Charakter hat. Insofern bleibt vertrauenswürdige KI ein Begriff, der nicht gänzlich erfassbar und operationalisierbar ist. Dennoch ist er nicht gleichzusetzen mit „blindem Vertrauen“ – also Hoffnung –, sondern basiert auf einem bestimmten Maß an Wissen. Umfängliche Informiertheit und rein rationale Beurteilungen können wir von Nutzer:innen und dem Großteil der weiteren Akteur:innen – also von uns allen – angesichts der Komplexität der Systeme und ihrer Einsatzkontexte nicht erwarten. Insofern ist die Zuwendung zum Konzept der vertrauenswürdigen KI auch ein Eingeständnis, das Komplexität reflektiert und anerkennt, aber nicht ignoriert. Wir gestehen uns ein, dass wir nicht alles begreifen und begreifbar machen können. Zugleich wenden wir uns den Möglichkeiten zu, Wissen zu erlangen und zu vergrößern. Das bedeutet ebenfalls, dass wir mehr unternehmen müssen, um Erkenntnisse über soziokulturelle Kontexte zu erhalten, in denen KI-Systeme entstehen und wirken, um dieses Wissen herunterzubrechen, verständlich darzustellen und um Vertrauensbildungsprozesse im Rahmen dieses geteilten Wissens zu stärken. Wie so oft bleibt uns an dieser Stelle eine Analyse des Ist-Zustands, ein Hervorheben der Bedeutsamkeit bestehender Ansätze hin zu vertrauenswürdiger KI und der mahnende Verweis auf Leerstellen. Zumindest eine zentrale Erkenntnis gibt es: Das ist lediglich der Startpunkt, von dem aus wir aufbrechen, um vertrauenswürdige KI-Systeme zu schaffen. 9
Quellen Beining, Leonie: Vertrauenswürdige KI durch Standards? Herausforderungen bei der Standardisierung und Zertifizierung von Künstlicher Intelligenz. 2020. Hg. v. Stiftung Neue Verantwortung. Online unter: https://www.stiftung- nv.de/sites/default/files/herausforderungen-standardisierung-ki.pdf (18.03.2022). Cave, Stephen; Dihal, Kanta: Standpunkt: Geschichte und Zukünfte Künstlicher Intelligenz. 2022. Online unter: https://background.tagesspiegel.de/digitalisierung/geschichte-und- zukuenfte-kuenstlicher-intelligenz (18.03.2022). D21 e. V. (Hg.): D21 Digitalindex 2021/2022. Jährliches Lagebild zur Digitalen Gesellschaft. Vertiefungsthema: Digitale Nachhaltigkeit. 2022. Unter Mitarbeit von Kantar. Online unter: https://initiatived21.de/app/uploads/2022/02/d21-digital-index-2021_2022.pdf (18.03.2022). Europäische Kommission: Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (Gesetz über Künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union, COM(2021) 206 final. 2021. Hg. v. Publications Office of the EU. Online unter: https://eur- lex.europa.eu/legal-content/DE/TXT/?uri=CELEX%3A52021PC0206 (18.03.2022). Europäische Kommission: Neue Vorschriften für künstliche Intelligenz – Fragen und Antworten. 2021/ 2. Online unter: https://ec.europa.eu/commission/presscorner/detail/de/QANDA_21_1683#1 (18.03.2022). Europäische Kommission: Weißbuch zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen, COM(2020) 65 final. 2020. Hg. v. Publications Office of the EU. Online unter: https://ec.europa.eu/info/sites/default/files/commission-white- paper-artificial-intelligence-feb2020_de.pdf (18.03.2022). Glikson, Ella; Woolley, Anita Williams: Human Trust in Artificial Intelligence: Review of Empirical Research. 2020. In: ANNALS 14 (2), S. 627–660. DOI: 10.5465/annals.2018.0057. Heesen, Jessica; Müller-Quade, Jörn; Wrobel, Stefan et al.: Kritikalität von KI-Systemen. Ein notwendiger, aber nicht hinreichender Baustein für Vertrauenswürdigkeit. 2021. Hg. v. Plattform Lernende Systeme. Online unter: https://www.plattform-lernende- systeme.de/files/Downloads/Publikationen/AG3_WP_Kritikalitaet_von_KI-Systemen.pdf (18.03.2022). High-Level Expert Group on AI: Ethics Guidelines for Trustworthy Artificial Intelligence. 2019. Hg. v. Publications Office of the EU. Online unter: https://op.europa.eu/en/publication-detail/-/publication/d3988569-0434-11ea-8c1f- 01aa75ed71a1 (18.03.2022). Horn, Nikolai: Vertrauen, das Handlungsoptionen schafft, ohne naiv zu sein. 2021. In: Philosophischer Zwischenruf, hg. v. Corporate Digital Responsibility (Online-Magazin). Online unter: https://corporate-digital-responsibility.de/article/philosophischer- zwischenruf-vertrauen/#_ftn1 (18.03.2022). 10
iRights.Lab: Auftaktveranstaltung Zentrum für vertrauenswürdige KI (ZVKI). 2022. Youtube- Kanal. Online unter: https://www.youtube.com/watch?v=FkVMJD6H0vg (18.03.2022). Kieslich, Kimon; Došenović, Pero; Marcinkowski, Frank: Algorithmische Empfehlungssysteme. Was denkt die deutsche Bevölkerung über den Einsatz und die Gestaltung algorithmischer Empfehlungssysteme? 2021. Factsheet Nr. 5 des Meinungsmonitor Künstliche Intelligenz. Online unter: https://www.cais.nrw/wp-94fa4- content/uploads/2021/05/Factsheet-5-KI-Recommender.pdf (18.03.2022). Landes, Miriam; Steiner, Eberhard; Utz, Tatjana (Hg.): Kreativität und Innovation in Organisationen. Impulse aus Innovationsforschung, Management, Kunst und Psychologie. 2022. Berlin, Heidelberg: Springer. Luhmann, Niklas: Vertrauen. Ein Mechanismus der Reduktion sozialer Komplexität. 2014. Konstanz und München: UVK Verlagsgesellschaft mbH. OECD: Recommendation of the Council on Artificial Intelligence, OECD/LEGAL/0449. 2019. Online unter: https://legalinstruments.oecd.org/api/print?ids=648&lang=en (18.03.2022). Plattform Lernende Systeme: Glossar. Künstliche Intelligenz (KI). O. D. Online unter: https://www.plattform-lernende-systeme.de/glossar.html (18.03.2022). Siau, Keng; Wang, Weiyu: Building Trust in Artificial Intelligence, Machine Learning, and Robotics. Trust is hard to come by. 2018. In: Cutter Business Technology Journal 31 (2), S. 47-53. Online unter: https://www.cutter.com/article/building-trust-artificial-intelligence- machine-learning-and-robotics-498981 (18.03.2022). Stürz, A. Roland; Stumpf, Christian; Mendel, Ulrike: Künstliche Intelligenz verstehen und gestalten. Ergebnisse und Implikationen einer bidt-Kurzbefragung in Deutschland. 2020. Hg. v. bidt – Bayerisches Forschungsinstitut für Digitale Transformation. Online unter: https://www.bidt.digital/wp-content/uploads/2020/06/bidt_KI-Studie_Juni-2020.pdf (18.03.2022). Tschopp, Marisa; Ruef, Marc; Monett, Dagmar: Vertrauen Sie KI? Einblicke in das Thema Künstliche Intelligenz und warum Vertrauen eine Schlüsselrolle im Umgang mit neuen Technologien spielt. 2022. In: Miriam Landes, Eberhard Steiner und Tatjana Utz (Hg.): Kreativität und Innovation in Organisationen. Impulse aus Innovationsforschung, Management, Kunst und Psychologie. Berlin, Heidelberg: Springer, S. 319–346. Wahlster, Wolfgang; Winterhalter, Christoph (Hg.): Deutsche Normierungsroadmap Künstliche Intelligenz. 2020. Online unter: https://www.din.de/resource/blob/772438/6b5ac6680543eff9fe372603514be3e6/normung sroadmap-ki-data.pdf (18.03.2022). Wilson, Christopher; van der Velden, Maja: Sustainable AI: An integrated model to guide public sector decision-making 11
Impressum Inhaltlich Verantwortlicher i. S. d. § 55 Abs. 2 RStV: Philipp Otto iRights.Lab GmbH Oranienstr. 185 D-10999 Berlin Telefon: +49 (0)30 40 36 77 230 Fax: +49 (0)30 40 36 77 260 E-Mail: zvki@irights-lab.de Geschäftsführer:in: Philipp Otto, Dr. Wiebke Glässer Registergericht: Amtsgericht Berlin-Charlottenburg Registernummer: HRB 185640 B Finanzamt für Körperschaften II USt-IdNr.: DE311181302 Projektleitung: Philipp Otto Projektkoordination: Verena Till Autorin: Jaana Müller-Brehm Inhaltliche Mitarbeit: Michael Puntschuh, Paul Ritzka, Verena Till Lektorat: text|struktur Dieses Werk steht unter Creative Commons Lizenz CC BY-SA 4.0 https://creativecommons.org/licenses/by-sa/4.0/deed.de. Projektpartner:innen ZVKI: iRights.Lab, Fraunhofer AISEC, Fraunhofer IAIS, Freie Universität Berlin Gefördert durch: Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz (BMUV) Das Projekt ZVKI wird vom unabhängigen Think Tank iRights.Lab verantwortet und durchgeführt. Das iRights.Lab entwickelt Strategien und praktische Lösungen, um die Veränderungen in der digitalen Welt vorteilhaft zu gestalten. Wir unterstützen öffentliche Einrichtungen, Stiftungen, Unternehmen, Wissenschaft und Politik dabei, die Herausforderungen der Digitalisierung zu meistern und die vielschichtigen Potenziale effektiv und positiv zu nutzen. Weitere Informationen über das iRights.Lab finden Sie unter www.irights-lab.de. 12
Sie können auch lesen