Technisch - organisatorische Maßnahmen für ethische und legitime KI-Algorithmen - Auf dem Weg zu einem neuen Code of Conduct

Die Seite wird erstellt Charlotte Gross
 
WEITER LESEN
Technisch - organisatorische Maßnahmen für ethische und legitime KI-Algorithmen - Auf dem Weg zu einem neuen Code of Conduct
Technisch – organisatorische Maßnahmen für
ethische und legitime KI-Algorithmen
Auf dem Weg zu einem neuen Code of Conduct

                   Datum: 08.09.2020         Seite 1
                   Prof. Dr. Transchel
                   Fachbereich AI
Technisch - organisatorische Maßnahmen für ethische und legitime KI-Algorithmen - Auf dem Weg zu einem neuen Code of Conduct
Agenda
Ethische und legitime KI-Algorithmen

– Einleitung und Motivation
– Hintergrund und regulatorische Entwicklung
– Ethische Herausforderungen des KI-Einsatzes speziell im Versicherungsumfeld
– Lösungsansätze

                              Datum: 08.09.2020                        Seite 2
                              Prof. Dr. Transchel
                              Fachbereich AI
Technisch - organisatorische Maßnahmen für ethische und legitime KI-Algorithmen - Auf dem Weg zu einem neuen Code of Conduct
Stiftungsprofessur E+S Rück „Data Science“
Prof. Dr. Fabian Transchel

- Wissenschaftlicher Werdegang
  -   Promotion in Theoretischer Physik (Quanteninformation)
  -   Forschung zum Thema Kfz-Telematik
- Beruflicher Werdegang bei akquinet SLS / movingdots
  -   Senior Data Scientist, Technischer Projektleiter ADAS
- Weiterbildung
  -   Dozent DAA / EAA, Mitglied in DAV-AGs zur Konzeption von CADS, Ethik von
      KI-Anwendungen, Statistische und Mathematische Methoden
- Seit März 2020 an der Hochschule Harz, Stiftungsprofessur E+S Rück „Data Science“
  -   Kfz-Telematik, Autonomes Fahren, KI-Ethik / Erklärbarkeit, Kundenwertmodelle
  -   Studienkoordinator Master Data Science (u.a. berufsbegleitend)

                                        Datum: 08.09.2020                             Seite 3
                                        Prof. Dr. Transchel
                                        Fachbereich AI
Technisch - organisatorische Maßnahmen für ethische und legitime KI-Algorithmen - Auf dem Weg zu einem neuen Code of Conduct
Warum KI-Ethik?

Einleitung und Motivation

                     Datum: 08.09.2020     Seite 4
                     Prof. Dr. Transchel
                     Fachbereich AI
Technisch - organisatorische Maßnahmen für ethische und legitime KI-Algorithmen - Auf dem Weg zu einem neuen Code of Conduct
Warum KI-Ethik?
Anekdotisches…

                  Datum: 17.11.2020     Seite 5
                  Prof. Dr. Transchel
                  Fachbereich AI
Technisch - organisatorische Maßnahmen für ethische und legitime KI-Algorithmen - Auf dem Weg zu einem neuen Code of Conduct
Zum Status Quo
Gibt es (weiteren) Regulierungsbedarf?

                     Datum: 17.11.2020     Seite 6
                     Prof. Dr. Transchel
                     Fachbereich AI
Technisch - organisatorische Maßnahmen für ethische und legitime KI-Algorithmen - Auf dem Weg zu einem neuen Code of Conduct
Zum Status Quo
Hintergrund

 2015: „Open Letter on Artificial Intelligence“
 2016: Kommission des Bundesverkehrsministerium entwirft „Leitlinien für Fahrcomputer“
 2018: Datenethik-Kommission des Bundes
 2019: EU-Kommission beauftragt „High Level Expert Group on AI“
 2020 Stellungnahme DAV
 2020 Enquete-Kommission Künstliche Intelligenz des Deutschen Bundestages

                                 Datum: 17.11.2020                           Seite 7
                                 Prof. Dr. Transchel
                                 Fachbereich AI
Technisch - organisatorische Maßnahmen für ethische und legitime KI-Algorithmen - Auf dem Weg zu einem neuen Code of Conduct
High Level Expert Group
Die ethischen Grundsätze

1. Menschliches Handeln und menschliche Aufsicht
2. Technische Robustheit und Sicherheit
3. Datenschutz und -verwaltung
4. Transparenz
5. Vielfalt, Nichtdiskriminierung und Fairness
6. Wohlbefinden von Umwelt und Gesellschaft
7. Verantwortlichkeit

Quelle: „Ethics Guidelines for trustworthy AI“, High Level Expert Group on Artificial Intelligence, EU-Kommission

                                                                        Datum: 17.11.2020                           Seite 8
                                                                        Prof. Dr. Transchel
                                                                        Fachbereich AI
Technisch - organisatorische Maßnahmen für ethische und legitime KI-Algorithmen - Auf dem Weg zu einem neuen Code of Conduct
Enqeute-Kommission
KI-Strategie Deutschland: Ethik

„Künstliche Intelligenz – Gesellschaftliche Verantwortung und
wirtschaftliche, soziale und ökologische Potenziale“

 These: Gestaltung von Nutzen von KI zum Wohle der Gesellschaft
 Mensch steht im Mittelpunkt  Menschliche Autonomie
    Datenschutz
    Nicht-Diskriminierung
    Transparenz
 Standardisierung erwünscht  Regulierung

Quelle: „Kurzfassung des Abschlussberichts“, Enqueute-Kommission Künstliche Intelligenz des deutschen Bundestags

                                                                   Datum: 17.11.2020                               Seite 9
                                                                   Prof. Dr. Transchel
                                                                   Fachbereich AI
Technisch - organisatorische Maßnahmen für ethische und legitime KI-Algorithmen - Auf dem Weg zu einem neuen Code of Conduct
Die ethische Herausforderung
Legalität vs. Akzeptanz

These: Es geht nicht nur um das, was man darf, sondern auch um das, was man soll.

„Trustworthy AI has three components, which should be met throughout the system's entire life
cycle“:

1. „It should be lawful, complying with all applicable laws and regulations;“
2. „It should be ethical, ensuring adherence to ethical principles and values; and“
3. „It should be robust, both from a technical and social perspective, since, even with good
       intentions, AI systems can cause unintentional harm.“

Quelle: „Ethics Guidelines for trustworthy AI“, High Level Expert Group on Artificial Intelligence, EU-Kommission

                                                                        Datum: 17.11.2020                           Seite 10
                                                                        Prof. Dr. Transchel
                                                                        Fachbereich AI
Die praktische Herausforderung
Akzeptanzkriterien

Stufen der Akzeptanz
  – Stufe 0: Was technisch möglich ist
  – Stufe 1: Was de jure erlaubt ist.  Legitimitätsprinzip
  – Stufe 2: Code of Conduct / Was das Unternehmen in Ordnung findet.
  – Stufe 3: Was die Gesellschaft grundsätzlich in Ordnung findet. (Akzeptanz i.w.S.)
  – Stufe 4: Was der Kunde bezogen auf die Transaktion / das Produkt in Ordnung findet.
    (Akzeptanz i.e.S.)  Akzeptanzprinzip
  – Stufe 4: Was unvermeidbar ist.                            Bereich der praktischen Abwägung

                                 Datum: 17.11.2020                                Seite 11
                                 Prof. Dr. Transchel
                                 Fachbereich AI
Warum KI-Ethik?
Schlussfolgerung

                   Die Herausforderung

  KIs übernehmen immer mehr menschliche Aufgaben.
  Sie müssen mindestens den gleichen Anforderungen
 genügen, tendenziell (Akzeptanz!) aber sogar höheren.

                    Datum: 17.11.2020          Seite 12
                    Prof. Dr. Transchel
                    Fachbereich AI
Lösungsansätze

Technisch-Organisatorische Maßnahmen zum Einsatz von KI

Ein neuer Code of Conduct?

                   Datum: 08.09.2020             Seite 13
                   Prof. Dr. Transchel
                   Fachbereich AI
Vorbild GDPR
Was können wir von der Datenschutznovelle lernen?

 Es gibt technisch-organisatorische Maßnahmen (TOMs)

 Wie sehen die aus?  Datenschutzfolgeabschätzung
                        Code of Conduct
                        Risikomanagement im Rahmen von Solvency II

 Der Regulierer versteht, dass es keine Absolutismen gibt, sondern ökonomische
  Abwägungen erforderlich sind  „KI-Folgeabschätzung“

 Wir gehen die Ethics Guidelines durch und schauen, was davon für Actuarial Data Science
  relevant ist und wie man es umsetzen kann
                               Datum: 17.11.2020                              Seite 14
                               Prof. Dr. Transchel
                               Fachbereich AI
KI-Folgenabschätzung
Maßnahmen und Verhältnismäßigkeit

 Allgemeines Ziel: Einhaltung der sieben Grundsätze der HLEG
 Spezifisches Ziel: Maßnahmen umfassend, verständlich und verhältnismäßig halten,
  Akzeptanz sichern, um langfristig weiter KI verwenden zu können

                                                                  Eintrittswahrscheinlichkeit

                                   Vernachlässigbar      Eingeschränkt          Wesentlich      Maximal

                Maximal            Mittel                Mittel                 Hoch            Hoch

Auswirkungen    Wesentlich         Mittel                Mittel                 Mittel          Hoch
aus Sicht der
Betroffenen     Eingeschränkt      Gering                Mittel                 Mittel          Mittel

                Vernachlässigbar   Gering                Gering                 Mittel          Mittel

                                   Datum: 17.11.2020                                              Seite 15
                                   Prof. Dr. Transchel
                                   Fachbereich AI
KI-TOMs
1) Menschliche Autonomie

Maßnahme 1.1: Jede KI-Anwendung muss eine Rückfallebene implementieren

 Grenzfallermittlung
   Fallback zu Operator
   System muss Bedarfsfalländerung unterstützen

 Beispiele
   Kfz-Telematik: Bei unklarer Bewertung Prämierung nach Normaltarif
   Leben: Bei KI-Schätzung von Merkmalen (z.B. Raucher ja/nein) Gutachter vorsehen

                               Datum: 17.11.2020                            Seite 16
                               Prof. Dr. Transchel
                               Fachbereich AI
KI-TOMs
1) Menschliche Autonomie

Maßnahme 1.2: Offenlegung

 Automatische Entscheidungen und Bots als solche kennzeichnen

 Widerspruchsmöglichkeit gegen automatische Entscheidungen ermöglichen und umsetzen

 Beispiele
   Offenlegen, wenn Merkmale KI-geführt bestimmt oder verwendet werden
   FAQs via Chat-Bot, Kundenführung im Support via Telefon-Bot

                              Datum: 17.11.2020                           Seite 17
                              Prof. Dr. Transchel
                              Fachbereich AI
KI-TOMs
2) Technische Robustheit und Sicherheit

Maßnahme 2.1: Penetrationstests aller Produktivsysteme

 Schnittstellen und Server testen

 Interne Prozesse testen (auch die Rückfallebenen, bspw. via Social Engineering)

 Nicht nur Release-getrieben, sondern regelmäßig (Zero-Day-Exploits etc.)

                                Datum: 17.11.2020                              Seite 18
                                Prof. Dr. Transchel
                                Fachbereich AI
KI-TOMs
2) Technische Robustheit und Sicherheit

Maßnahme 2.2a: Zertifizierung der Produktivsysteme

 Standortsicherheit
 Life-Cycle-Sicherheit
 Software-Sicherheit

Maßnahme 2.2b: Zertifiziertes Backup

 Die solide IT-Sicherheit ist die Grundlage für sichere KI-Systeme
 Verschlüsselung sichert gegen unbefugte Änderung
 Backups sichern Reproduzierbarkeit

                                Datum: 17.11.2020                     Seite 19
                                Prof. Dr. Transchel
                                Fachbereich AI
KI-TOMs
2) Technische Robustheit und Sicherheit

Maßnahme 2.3: Reproduzierbarkeit aller Entscheidungen

 ML-Training ist so zu gestalten, dass Modelle und Entscheidungen reproduziert werden
  können

 Bei (Trainings-)Update muss das Legacy-Modell genau wie Altvertragsbedingungen
  weiter verfügbar sein

 Bei Software-Updates durch Virtualisierung Legacy-Kompatibilität herstellen

                                Datum: 17.11.2020                               Seite 20
                                Prof. Dr. Transchel
                                Fachbereich AI
KI-TOMs
3) Datenschutz und -verwaltung

Maßnahme 3.1: Einbezug Datenschutzbeauftragter

 Der CPO ist in alle KI-Prozesse, die personenbezogene Daten verwenden, einzubeziehen

 CPO ist für Datenschutz, aber nicht KI-Regulatorik verantwortlich (Stand 2020)

 Datenschutz-TOMs und KI-TOMs ergänzen sich

                                Datum: 17.11.2020                                  Seite 21
                                Prof. Dr. Transchel
                                Fachbereich AI
KI-TOMs
3) Datenschutz und -verwaltung

Maßnahme 3.2: Zugriffs- und Rechteverwaltung

 Es muss dokumentiert und nachvollziehbar sein, wer wann auf welchen Daten
  zugreifen durfte, bzw. zugegriffen hat

 Privacy-by-Design: Eine formale Dienstanweisung ist nicht ausreichend, die Rechte-
  verwaltung muss im Produktivsystem implementiert sein

                                Datum: 17.11.2020                             Seite 22
                                Prof. Dr. Transchel
                                Fachbereich AI
KI-TOMs
4) Transparenz

  Die eingesetzten Methoden müssen transparent und nachvollziehbar sein
   (z.B. Open Source, Dokumentation, Einzelfallstichproben)
  Die Geschäftsgeheimnisse müssen nicht transparent sein, aber die Dokumentation muss
   es dem Regulierer ermöglichen, die Steuerung der Methode nachzuvollziehen

  Beispiel: Zwickmühle Künstliche Neuronale Netze – Präzision vs. Erklärbarkeit

      Abwägung zwischen besseren Vorhersagen und Nachvollziehbarkeit
      In Reservierung und Tarifierung muss es zwingend Stresstesting bzw.
        Konfidenzintervalle geben  Forschungs- oder Regulierungsbedarf?

                              Datum: 17.11.2020                               Seite 23
                              Prof. Dr. Transchel
                              Fachbereich AI
KI-TOMs
4) Transparenz: Erklärbarkeits-Tradeoffs
                                                                Genauigkeit

 Künstl. Neuronale Netze
 Ensemble-Methoden
 Support Vector Machines
                                                                                                                                                                       Tradeoff-Korridor
 Bayesian Nets
 Entscheidungsbäume
 GLMs

                                                                                                                                                                                  Erklärbarkeit
Quelle: F. Xu, H. Uszkoreit, Y. Du, W. Fan, D. Zhao, J. Zhu (2019), „Explainable AI: A Brief Survey on History, Research Areas, Approaches and Challenges”, Springer

                                                                                         Datum: 17.11.2020                                                                      Seite 24
                                                                                         Prof. Dr. Transchel
                                                                                         Fachbereich AI
KI-TOMs
4) Transparenz

  Maßnahme 4.1: KI-Folgeabschätzung

  Ist ein Verlust von Erklärbarkeit angesichts eines Gewinns von Präzision im
   konkreten Fall hinnehmbar?

 Möglicherweise ja: Schadenverarbeitung, Support, Kundenwertmodelle, etc.

 Ziemlich sicher nein: Reservierung, Tarifierung, Stresstesting

                                Datum: 17.11.2020                                Seite 25
                                Prof. Dr. Transchel
                                Fachbereich AI
KI-TOMs
5) Vielfalt, Nichtdiskriminierung und Fairness

Herausforderung 5.1: Merkmale und ihre Konsequenz

 Ausgangspunkt: Akzeptanz vs. Legalität

   Was heute in Ordnung ist, kann morgen als diskriminierend empfunden werden

   Maßnahme 5.1: Diskriminierende Merkmale dürfen nicht verwendet werden, also
     auch nicht erhoben oder gespeichert werden
    Trennung zwischen Bestand und Risikoanalyse erforderlich (Datenschutzthema)

Was aber ist mit Ersatzmerkmalen, die stark mit diskriminierenden Merkmalen korrelieren?
                               Datum: 17.11.2020                              Seite 26
                               Prof. Dr. Transchel
                               Fachbereich AI
KI-TOMs
5) Vielfalt, Nichtdiskriminierung und Fairness

Herausforderung 5.2: Unbeabsichtigte und nicht-prüfbare Diskriminierung

 Problem: KI kann auch diskriminieren, ohne es zu „wissen“; Ausschluss von Merkmalen stellt
  nicht sicher, dass ML-Methode nicht trotzdem danach diskriminiert

   Maßnahme 5.2: Grenzfallprüfung auf Fälle ausweiten, die als diskriminierend
      empfunden werden können

   Grundsätzlich den Nachweis führen, dass keine diskriminierenden Merkmale verwendet
      werden

                               Datum: 17.11.2020                               Seite 27
                               Prof. Dr. Transchel
                               Fachbereich AI
KI-TOMs
5) Vielfalt, Nichtdiskriminierung und Fairness

Herausforderung 5.3: Bestand des Versicherungsprinzips

 Prämien können immer individueller bestimmt werden

   Versicherer können Rechtfertigungsprobleme bekommen, wenn (adäquate)
     Risikoprämien gesellschaftlich als unverhältnismäßig betrachtet werden ( Telematik)

   Insbesondere bei Deckungen mit Kontrahierungszwang relevant

 Maßnahme 5.3: In diesen Fällen ist Transparenz in Bezug auf Auskömmlichkeit erforderlich

                               Datum: 17.11.2020                               Seite 28
                               Prof. Dr. Transchel
                               Fachbereich AI
KI-TOMs
6) Wohlbefinden von Umwelt und Gesellschaft

 Einordnung der Nutzung von KI in gesellschaftliches Umfeld

 Beispiel: Asimovs Robotergesetze

                               Datum: 17.11.2020               Seite 29
                               Prof. Dr. Transchel
                               Fachbereich AI
KI-TOMs
6) Wohlbefinden von Umwelt und Gesellschaft

 EinEine KI
      Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit
   (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.

 EinEine KI
      Roboter muss den ihm
                        (ihr) von einem Menschen gegebenen Befehlen gehorchen – es sei

   denn, ein solcher Befehl würde mit Regel eins kollidieren.

 EinEine KI
      Roboter muss seine
                    (ihre) eigene Existenz beschützen, solange dieser Schutz nicht mit Regel

   eins oder zwei kollidiert.

Quellen: Asimov (1982), Meine Freunde, die Roboter. Heyne, München; Asimov (1975) The Naked Sun. Doubleday, New York

                                                           Datum: 17.11.2020                                           Seite 30
                                                           Prof. Dr. Transchel
                                                           Fachbereich AI
KI-TOMs
6) Wohlbefinden von Umwelt und Gesellschaft

 Einordnung der Nutzung von KI in gesellschaftliches Umfeld

 Beispiel: Asimovs Robotergesetze

 Konkret (HLEG): KI darf nicht verwendet werden, um gegen den Gesellschftl. Frieden oder
  eine freiheitliche Grundordnung zu arbeiten

 „Ethics by design“

 Maßnahme 6.1: Grenzfalltests erweitern  Fragen des Gesellschaftlichen Wohlergehens

                                Datum: 17.11.2020                             Seite 31
                                Prof. Dr. Transchel
                                Fachbereich AI
KI-TOMs
6) Wohlbefinden von Umwelt und Gesellschaft

 Maßnahme 6.2: KI-Folgeabschätzung enthält CO2-Fußabdruck

 Energiebedarf muss in günstigem Verhältnis zum wirtschaftlichen Nutzen stehen

                                  Energieaufwand
                                                                                                  Statischer Prozess

                                                                                                  ML-Prozess

                                                                                                                                                  Zeit

                                  Trainings-Phase                                                    Produktiv-Phase                  Breakeven

Bildquelle: Transchel, F. „How much is that power plant – Energy expenditure of AI/ML put into ecologic perspective“, working paper

                                                                      Datum: 17.11.2020                                                                  Seite 32
                                                                      Prof. Dr. Transchel
                                                                      Fachbereich AI
KI-TOMs
7) Verantwortlichkeit

Maßnahme 7.1: Analog zum Datenschutzbeauftragten braucht es KI-Beauftragten

 Konzepte vom DPO schon vorhanden
 Verantwortung der Umsetzung der Punkte 1-6
 KI-Beauftragter muss tiefgehende ADS-Kenntnisse haben

Maßnahme 7.2: Benennung einer KI-Schiedsstelle

 Ombudsmänner und –frauen müssen nachgeschult werden

                              Datum: 17.11.2020                       Seite 33
                              Prof. Dr. Transchel
                              Fachbereich AI
Technisch-organisatorische Maßnahmen zum Einsatz von KI
Zusammenfassung (1)

Prinzipien                                                     Maßnahmen-Checkliste
                                                               „KI-Folgeabschätzung“
1.   Menschliches Handeln und menschliche Aufsicht
                                                               1.    Rückfallebene
2.   Technische Robustheit und Sicherheit                      2.    Offenlegung
3.   Datenschutz und -verwaltung                               3.    Penetrationstests
4.   Transparenz                                               4.    Zertifizierung Prozesse / Backups
5.   Vielfalt, Nichtdiskriminierung und Fairness               5.    Reproduzierbarkeit
6.   Wohlbefinden von Umwelt und Gesellschaft                  6.    Einbezug des Datenschutzbeauftragten
                                                               7.    Zugriffs- und Rechteverwaltung
7.   Verantwortlichkeit
                                                               8.    Erklärbarkeits-Tradeoffs
                                                               9.    Merkmalsausschluss
                                                               10.   Grenzfallprüfung
                                                               11.   Achtung des Versicherungsprinzips
                                                               12.   Ökologische Folgenabschätzung
                                                               13.   KI-Beauftragter
                                                               14.   KI-Schiedsstelle vonnöten

                                         Datum: 17.11.2020                                                  Seite 34
                                         Prof. Dr. Transchel
                                         Fachbereich AI
Technisch-organisatorische Maßnahmen zum Einsatz von KI
Zusammenfassung (2): Forschungsbedarf

 Transparenz von KI-Methoden?
 Stresstesting und Konfidenz von KI-Methoden?
 Diskriminierungsfreiheit von KI-Methoden?
 Industrienormen für (aktuarielle) KI-Modelle?
 Ausgestaltung / Umfang KI-Folgeabschätzung?
 Wie kann Ethics by Design aussehen?
 Systematische ökologische Energieabschätzung KI-Training?
 Nach- und Weiterbildung für nicht-quantitative Versicherungsabteilungen?

                                Datum: 17.11.2020                            Seite 35
                                Prof. Dr. Transchel
                                Fachbereich AI
Technisch-organisatorische Maßnahmen zum Einsatz von KI
Zusammenfassung (3): Rolle des Aktuars

 KI-Beauftragter des Unternehmens muss ADS-Kenntnisse haben
   Versicherungsmathematische Funktion ist prädestiniert

 Transparenz, Stabilität und Konfidenz von Algorithmen müssen dem Regulator genügen
   Rolle des Aktuars als KI-Spezialist mit Versicherungssachkenntnis

 Umsetzung der Technisch-Organisatorischen Maßnahmen ist eine Interdisziplinäre Aufgabe
  zwischen Aktuariat und IT
   ADS-Kenntnisse nicht nur mathematischer Art, sondern auch von IT-Methoden vonnöten
   Kommunikation mit anderen Abteilungen ist hierbei essentiell

                               Datum: 17.11.2020                            Seite 36
                               Prof. Dr. Transchel
                               Fachbereich AI
Prof. Dr. Fabian Transchel
Telefon +49 3943 – 305
Telefax +49 3943 – 5305
E-Mail ftranschel@hs-harz.de
Friedrichstraße 57 – 59
38855 Wernigerode

                               Datum: 08.09.2020     Seite 37
                               Prof. Dr. Transchel
                               Fachbereich AI
Sie können auch lesen