Technisch - organisatorische Maßnahmen für ethische und legitime KI-Algorithmen - Auf dem Weg zu einem neuen Code of Conduct
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
Technisch – organisatorische Maßnahmen für ethische und legitime KI-Algorithmen Auf dem Weg zu einem neuen Code of Conduct Datum: 08.09.2020 Seite 1 Prof. Dr. Transchel Fachbereich AI
Agenda Ethische und legitime KI-Algorithmen – Einleitung und Motivation – Hintergrund und regulatorische Entwicklung – Ethische Herausforderungen des KI-Einsatzes speziell im Versicherungsumfeld – Lösungsansätze Datum: 08.09.2020 Seite 2 Prof. Dr. Transchel Fachbereich AI
Stiftungsprofessur E+S Rück „Data Science“ Prof. Dr. Fabian Transchel - Wissenschaftlicher Werdegang - Promotion in Theoretischer Physik (Quanteninformation) - Forschung zum Thema Kfz-Telematik - Beruflicher Werdegang bei akquinet SLS / movingdots - Senior Data Scientist, Technischer Projektleiter ADAS - Weiterbildung - Dozent DAA / EAA, Mitglied in DAV-AGs zur Konzeption von CADS, Ethik von KI-Anwendungen, Statistische und Mathematische Methoden - Seit März 2020 an der Hochschule Harz, Stiftungsprofessur E+S Rück „Data Science“ - Kfz-Telematik, Autonomes Fahren, KI-Ethik / Erklärbarkeit, Kundenwertmodelle - Studienkoordinator Master Data Science (u.a. berufsbegleitend) Datum: 08.09.2020 Seite 3 Prof. Dr. Transchel Fachbereich AI
Warum KI-Ethik? Einleitung und Motivation Datum: 08.09.2020 Seite 4 Prof. Dr. Transchel Fachbereich AI
Zum Status Quo Gibt es (weiteren) Regulierungsbedarf? Datum: 17.11.2020 Seite 6 Prof. Dr. Transchel Fachbereich AI
Zum Status Quo Hintergrund 2015: „Open Letter on Artificial Intelligence“ 2016: Kommission des Bundesverkehrsministerium entwirft „Leitlinien für Fahrcomputer“ 2018: Datenethik-Kommission des Bundes 2019: EU-Kommission beauftragt „High Level Expert Group on AI“ 2020 Stellungnahme DAV 2020 Enquete-Kommission Künstliche Intelligenz des Deutschen Bundestages Datum: 17.11.2020 Seite 7 Prof. Dr. Transchel Fachbereich AI
High Level Expert Group Die ethischen Grundsätze 1. Menschliches Handeln und menschliche Aufsicht 2. Technische Robustheit und Sicherheit 3. Datenschutz und -verwaltung 4. Transparenz 5. Vielfalt, Nichtdiskriminierung und Fairness 6. Wohlbefinden von Umwelt und Gesellschaft 7. Verantwortlichkeit Quelle: „Ethics Guidelines for trustworthy AI“, High Level Expert Group on Artificial Intelligence, EU-Kommission Datum: 17.11.2020 Seite 8 Prof. Dr. Transchel Fachbereich AI
Enqeute-Kommission KI-Strategie Deutschland: Ethik „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale“ These: Gestaltung von Nutzen von KI zum Wohle der Gesellschaft Mensch steht im Mittelpunkt Menschliche Autonomie Datenschutz Nicht-Diskriminierung Transparenz Standardisierung erwünscht Regulierung Quelle: „Kurzfassung des Abschlussberichts“, Enqueute-Kommission Künstliche Intelligenz des deutschen Bundestags Datum: 17.11.2020 Seite 9 Prof. Dr. Transchel Fachbereich AI
Die ethische Herausforderung Legalität vs. Akzeptanz These: Es geht nicht nur um das, was man darf, sondern auch um das, was man soll. „Trustworthy AI has three components, which should be met throughout the system's entire life cycle“: 1. „It should be lawful, complying with all applicable laws and regulations;“ 2. „It should be ethical, ensuring adherence to ethical principles and values; and“ 3. „It should be robust, both from a technical and social perspective, since, even with good intentions, AI systems can cause unintentional harm.“ Quelle: „Ethics Guidelines for trustworthy AI“, High Level Expert Group on Artificial Intelligence, EU-Kommission Datum: 17.11.2020 Seite 10 Prof. Dr. Transchel Fachbereich AI
Die praktische Herausforderung Akzeptanzkriterien Stufen der Akzeptanz – Stufe 0: Was technisch möglich ist – Stufe 1: Was de jure erlaubt ist. Legitimitätsprinzip – Stufe 2: Code of Conduct / Was das Unternehmen in Ordnung findet. – Stufe 3: Was die Gesellschaft grundsätzlich in Ordnung findet. (Akzeptanz i.w.S.) – Stufe 4: Was der Kunde bezogen auf die Transaktion / das Produkt in Ordnung findet. (Akzeptanz i.e.S.) Akzeptanzprinzip – Stufe 4: Was unvermeidbar ist. Bereich der praktischen Abwägung Datum: 17.11.2020 Seite 11 Prof. Dr. Transchel Fachbereich AI
Warum KI-Ethik? Schlussfolgerung Die Herausforderung KIs übernehmen immer mehr menschliche Aufgaben. Sie müssen mindestens den gleichen Anforderungen genügen, tendenziell (Akzeptanz!) aber sogar höheren. Datum: 17.11.2020 Seite 12 Prof. Dr. Transchel Fachbereich AI
Lösungsansätze Technisch-Organisatorische Maßnahmen zum Einsatz von KI Ein neuer Code of Conduct? Datum: 08.09.2020 Seite 13 Prof. Dr. Transchel Fachbereich AI
Vorbild GDPR Was können wir von der Datenschutznovelle lernen? Es gibt technisch-organisatorische Maßnahmen (TOMs) Wie sehen die aus? Datenschutzfolgeabschätzung Code of Conduct Risikomanagement im Rahmen von Solvency II Der Regulierer versteht, dass es keine Absolutismen gibt, sondern ökonomische Abwägungen erforderlich sind „KI-Folgeabschätzung“ Wir gehen die Ethics Guidelines durch und schauen, was davon für Actuarial Data Science relevant ist und wie man es umsetzen kann Datum: 17.11.2020 Seite 14 Prof. Dr. Transchel Fachbereich AI
KI-Folgenabschätzung Maßnahmen und Verhältnismäßigkeit Allgemeines Ziel: Einhaltung der sieben Grundsätze der HLEG Spezifisches Ziel: Maßnahmen umfassend, verständlich und verhältnismäßig halten, Akzeptanz sichern, um langfristig weiter KI verwenden zu können Eintrittswahrscheinlichkeit Vernachlässigbar Eingeschränkt Wesentlich Maximal Maximal Mittel Mittel Hoch Hoch Auswirkungen Wesentlich Mittel Mittel Mittel Hoch aus Sicht der Betroffenen Eingeschränkt Gering Mittel Mittel Mittel Vernachlässigbar Gering Gering Mittel Mittel Datum: 17.11.2020 Seite 15 Prof. Dr. Transchel Fachbereich AI
KI-TOMs 1) Menschliche Autonomie Maßnahme 1.1: Jede KI-Anwendung muss eine Rückfallebene implementieren Grenzfallermittlung Fallback zu Operator System muss Bedarfsfalländerung unterstützen Beispiele Kfz-Telematik: Bei unklarer Bewertung Prämierung nach Normaltarif Leben: Bei KI-Schätzung von Merkmalen (z.B. Raucher ja/nein) Gutachter vorsehen Datum: 17.11.2020 Seite 16 Prof. Dr. Transchel Fachbereich AI
KI-TOMs 1) Menschliche Autonomie Maßnahme 1.2: Offenlegung Automatische Entscheidungen und Bots als solche kennzeichnen Widerspruchsmöglichkeit gegen automatische Entscheidungen ermöglichen und umsetzen Beispiele Offenlegen, wenn Merkmale KI-geführt bestimmt oder verwendet werden FAQs via Chat-Bot, Kundenführung im Support via Telefon-Bot Datum: 17.11.2020 Seite 17 Prof. Dr. Transchel Fachbereich AI
KI-TOMs 2) Technische Robustheit und Sicherheit Maßnahme 2.1: Penetrationstests aller Produktivsysteme Schnittstellen und Server testen Interne Prozesse testen (auch die Rückfallebenen, bspw. via Social Engineering) Nicht nur Release-getrieben, sondern regelmäßig (Zero-Day-Exploits etc.) Datum: 17.11.2020 Seite 18 Prof. Dr. Transchel Fachbereich AI
KI-TOMs 2) Technische Robustheit und Sicherheit Maßnahme 2.2a: Zertifizierung der Produktivsysteme Standortsicherheit Life-Cycle-Sicherheit Software-Sicherheit Maßnahme 2.2b: Zertifiziertes Backup Die solide IT-Sicherheit ist die Grundlage für sichere KI-Systeme Verschlüsselung sichert gegen unbefugte Änderung Backups sichern Reproduzierbarkeit Datum: 17.11.2020 Seite 19 Prof. Dr. Transchel Fachbereich AI
KI-TOMs 2) Technische Robustheit und Sicherheit Maßnahme 2.3: Reproduzierbarkeit aller Entscheidungen ML-Training ist so zu gestalten, dass Modelle und Entscheidungen reproduziert werden können Bei (Trainings-)Update muss das Legacy-Modell genau wie Altvertragsbedingungen weiter verfügbar sein Bei Software-Updates durch Virtualisierung Legacy-Kompatibilität herstellen Datum: 17.11.2020 Seite 20 Prof. Dr. Transchel Fachbereich AI
KI-TOMs 3) Datenschutz und -verwaltung Maßnahme 3.1: Einbezug Datenschutzbeauftragter Der CPO ist in alle KI-Prozesse, die personenbezogene Daten verwenden, einzubeziehen CPO ist für Datenschutz, aber nicht KI-Regulatorik verantwortlich (Stand 2020) Datenschutz-TOMs und KI-TOMs ergänzen sich Datum: 17.11.2020 Seite 21 Prof. Dr. Transchel Fachbereich AI
KI-TOMs 3) Datenschutz und -verwaltung Maßnahme 3.2: Zugriffs- und Rechteverwaltung Es muss dokumentiert und nachvollziehbar sein, wer wann auf welchen Daten zugreifen durfte, bzw. zugegriffen hat Privacy-by-Design: Eine formale Dienstanweisung ist nicht ausreichend, die Rechte- verwaltung muss im Produktivsystem implementiert sein Datum: 17.11.2020 Seite 22 Prof. Dr. Transchel Fachbereich AI
KI-TOMs 4) Transparenz Die eingesetzten Methoden müssen transparent und nachvollziehbar sein (z.B. Open Source, Dokumentation, Einzelfallstichproben) Die Geschäftsgeheimnisse müssen nicht transparent sein, aber die Dokumentation muss es dem Regulierer ermöglichen, die Steuerung der Methode nachzuvollziehen Beispiel: Zwickmühle Künstliche Neuronale Netze – Präzision vs. Erklärbarkeit Abwägung zwischen besseren Vorhersagen und Nachvollziehbarkeit In Reservierung und Tarifierung muss es zwingend Stresstesting bzw. Konfidenzintervalle geben Forschungs- oder Regulierungsbedarf? Datum: 17.11.2020 Seite 23 Prof. Dr. Transchel Fachbereich AI
KI-TOMs 4) Transparenz: Erklärbarkeits-Tradeoffs Genauigkeit Künstl. Neuronale Netze Ensemble-Methoden Support Vector Machines Tradeoff-Korridor Bayesian Nets Entscheidungsbäume GLMs Erklärbarkeit Quelle: F. Xu, H. Uszkoreit, Y. Du, W. Fan, D. Zhao, J. Zhu (2019), „Explainable AI: A Brief Survey on History, Research Areas, Approaches and Challenges”, Springer Datum: 17.11.2020 Seite 24 Prof. Dr. Transchel Fachbereich AI
KI-TOMs 4) Transparenz Maßnahme 4.1: KI-Folgeabschätzung Ist ein Verlust von Erklärbarkeit angesichts eines Gewinns von Präzision im konkreten Fall hinnehmbar? Möglicherweise ja: Schadenverarbeitung, Support, Kundenwertmodelle, etc. Ziemlich sicher nein: Reservierung, Tarifierung, Stresstesting Datum: 17.11.2020 Seite 25 Prof. Dr. Transchel Fachbereich AI
KI-TOMs 5) Vielfalt, Nichtdiskriminierung und Fairness Herausforderung 5.1: Merkmale und ihre Konsequenz Ausgangspunkt: Akzeptanz vs. Legalität Was heute in Ordnung ist, kann morgen als diskriminierend empfunden werden Maßnahme 5.1: Diskriminierende Merkmale dürfen nicht verwendet werden, also auch nicht erhoben oder gespeichert werden Trennung zwischen Bestand und Risikoanalyse erforderlich (Datenschutzthema) Was aber ist mit Ersatzmerkmalen, die stark mit diskriminierenden Merkmalen korrelieren? Datum: 17.11.2020 Seite 26 Prof. Dr. Transchel Fachbereich AI
KI-TOMs 5) Vielfalt, Nichtdiskriminierung und Fairness Herausforderung 5.2: Unbeabsichtigte und nicht-prüfbare Diskriminierung Problem: KI kann auch diskriminieren, ohne es zu „wissen“; Ausschluss von Merkmalen stellt nicht sicher, dass ML-Methode nicht trotzdem danach diskriminiert Maßnahme 5.2: Grenzfallprüfung auf Fälle ausweiten, die als diskriminierend empfunden werden können Grundsätzlich den Nachweis führen, dass keine diskriminierenden Merkmale verwendet werden Datum: 17.11.2020 Seite 27 Prof. Dr. Transchel Fachbereich AI
KI-TOMs 5) Vielfalt, Nichtdiskriminierung und Fairness Herausforderung 5.3: Bestand des Versicherungsprinzips Prämien können immer individueller bestimmt werden Versicherer können Rechtfertigungsprobleme bekommen, wenn (adäquate) Risikoprämien gesellschaftlich als unverhältnismäßig betrachtet werden ( Telematik) Insbesondere bei Deckungen mit Kontrahierungszwang relevant Maßnahme 5.3: In diesen Fällen ist Transparenz in Bezug auf Auskömmlichkeit erforderlich Datum: 17.11.2020 Seite 28 Prof. Dr. Transchel Fachbereich AI
KI-TOMs 6) Wohlbefinden von Umwelt und Gesellschaft Einordnung der Nutzung von KI in gesellschaftliches Umfeld Beispiel: Asimovs Robotergesetze Datum: 17.11.2020 Seite 29 Prof. Dr. Transchel Fachbereich AI
KI-TOMs 6) Wohlbefinden von Umwelt und Gesellschaft EinEine KI Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird. EinEine KI Roboter muss den ihm (ihr) von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren. EinEine KI Roboter muss seine (ihre) eigene Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert. Quellen: Asimov (1982), Meine Freunde, die Roboter. Heyne, München; Asimov (1975) The Naked Sun. Doubleday, New York Datum: 17.11.2020 Seite 30 Prof. Dr. Transchel Fachbereich AI
KI-TOMs 6) Wohlbefinden von Umwelt und Gesellschaft Einordnung der Nutzung von KI in gesellschaftliches Umfeld Beispiel: Asimovs Robotergesetze Konkret (HLEG): KI darf nicht verwendet werden, um gegen den Gesellschftl. Frieden oder eine freiheitliche Grundordnung zu arbeiten „Ethics by design“ Maßnahme 6.1: Grenzfalltests erweitern Fragen des Gesellschaftlichen Wohlergehens Datum: 17.11.2020 Seite 31 Prof. Dr. Transchel Fachbereich AI
KI-TOMs 6) Wohlbefinden von Umwelt und Gesellschaft Maßnahme 6.2: KI-Folgeabschätzung enthält CO2-Fußabdruck Energiebedarf muss in günstigem Verhältnis zum wirtschaftlichen Nutzen stehen Energieaufwand Statischer Prozess ML-Prozess Zeit Trainings-Phase Produktiv-Phase Breakeven Bildquelle: Transchel, F. „How much is that power plant – Energy expenditure of AI/ML put into ecologic perspective“, working paper Datum: 17.11.2020 Seite 32 Prof. Dr. Transchel Fachbereich AI
KI-TOMs 7) Verantwortlichkeit Maßnahme 7.1: Analog zum Datenschutzbeauftragten braucht es KI-Beauftragten Konzepte vom DPO schon vorhanden Verantwortung der Umsetzung der Punkte 1-6 KI-Beauftragter muss tiefgehende ADS-Kenntnisse haben Maßnahme 7.2: Benennung einer KI-Schiedsstelle Ombudsmänner und –frauen müssen nachgeschult werden Datum: 17.11.2020 Seite 33 Prof. Dr. Transchel Fachbereich AI
Technisch-organisatorische Maßnahmen zum Einsatz von KI Zusammenfassung (1) Prinzipien Maßnahmen-Checkliste „KI-Folgeabschätzung“ 1. Menschliches Handeln und menschliche Aufsicht 1. Rückfallebene 2. Technische Robustheit und Sicherheit 2. Offenlegung 3. Datenschutz und -verwaltung 3. Penetrationstests 4. Transparenz 4. Zertifizierung Prozesse / Backups 5. Vielfalt, Nichtdiskriminierung und Fairness 5. Reproduzierbarkeit 6. Wohlbefinden von Umwelt und Gesellschaft 6. Einbezug des Datenschutzbeauftragten 7. Zugriffs- und Rechteverwaltung 7. Verantwortlichkeit 8. Erklärbarkeits-Tradeoffs 9. Merkmalsausschluss 10. Grenzfallprüfung 11. Achtung des Versicherungsprinzips 12. Ökologische Folgenabschätzung 13. KI-Beauftragter 14. KI-Schiedsstelle vonnöten Datum: 17.11.2020 Seite 34 Prof. Dr. Transchel Fachbereich AI
Technisch-organisatorische Maßnahmen zum Einsatz von KI Zusammenfassung (2): Forschungsbedarf Transparenz von KI-Methoden? Stresstesting und Konfidenz von KI-Methoden? Diskriminierungsfreiheit von KI-Methoden? Industrienormen für (aktuarielle) KI-Modelle? Ausgestaltung / Umfang KI-Folgeabschätzung? Wie kann Ethics by Design aussehen? Systematische ökologische Energieabschätzung KI-Training? Nach- und Weiterbildung für nicht-quantitative Versicherungsabteilungen? Datum: 17.11.2020 Seite 35 Prof. Dr. Transchel Fachbereich AI
Technisch-organisatorische Maßnahmen zum Einsatz von KI Zusammenfassung (3): Rolle des Aktuars KI-Beauftragter des Unternehmens muss ADS-Kenntnisse haben Versicherungsmathematische Funktion ist prädestiniert Transparenz, Stabilität und Konfidenz von Algorithmen müssen dem Regulator genügen Rolle des Aktuars als KI-Spezialist mit Versicherungssachkenntnis Umsetzung der Technisch-Organisatorischen Maßnahmen ist eine Interdisziplinäre Aufgabe zwischen Aktuariat und IT ADS-Kenntnisse nicht nur mathematischer Art, sondern auch von IT-Methoden vonnöten Kommunikation mit anderen Abteilungen ist hierbei essentiell Datum: 17.11.2020 Seite 36 Prof. Dr. Transchel Fachbereich AI
Prof. Dr. Fabian Transchel Telefon +49 3943 – 305 Telefax +49 3943 – 5305 E-Mail ftranschel@hs-harz.de Friedrichstraße 57 – 59 38855 Wernigerode Datum: 08.09.2020 Seite 37 Prof. Dr. Transchel Fachbereich AI
Sie können auch lesen