Künstliche Intelligenz und Recht im Kontext von Industrie 4.0 - ERGEBNISPAPIER

Die Seite wird erstellt Kerstin Wilke
 
WEITER LESEN
Künstliche Intelligenz und Recht im Kontext von Industrie 4.0 - ERGEBNISPAPIER
ERGEBNISPAPIER

Künstliche Intelligenz und Recht
im Kontext von Industrie 4.0
Künstliche Intelligenz und Recht im Kontext von Industrie 4.0 - ERGEBNISPAPIER
Impressum

Herausgeber
Bundesministerium für Wirtschaft
und Energie (BMWi)
Öffentlichkeitsarbeit
11019 Berlin
www.bmwi.de
Redaktionelle Verantwortung
Plattform Industrie 4.0
Bertolt-Brecht-Platz 3
10117 Berlin
Gestaltung
PRpetuum GmbH, 80801 München
Stand
April 2019
Bildnachweis
sdecoret – Adobe Stock (Titel),
Patra Kongsirimongkolchai / EyeEm – Getty Images (S. 5),
Photographer is my life. – Getty Images (S. 8, S. 20),
Andriy Onufriyenko – Getty Images (S. 11),
Yuichiro Chino – Getty Images (S. 14, S. 31),
Westend61 – Getty Images (S. 17),
BlackJack3D – Getty Images (S. 24),
Caiaimage/Robert Daly – Getty Images (S. 28)
Diese und weitere Broschüren erhalten Sie bei:
Bundesministerium für Wirtschaft und Energie
Referat Öffentlichkeitsarbeit
E-Mail: publikationen@bundesregierung.de
www.bmwi.de
Zentraler Bestellservice:
Telefon: 030 182722721
Bestellfax: 030 18102722721

Diese Publikation wird vom Bundesministerium für Wirtschaft und
Energie im Rahmen der Öffentlichkeitsarbeit herausgegeben. Die
Publi­kation wird kostenlos abgegeben und ist nicht zum Verkauf
bestimmt. Sie darf weder von Parteien noch von Wahlwerbern oder
Wahlhelfern während eines Wahlkampfes zum Zwecke der Wahl­
werbung verwendet werden. Dies gilt für Bundestags-, Landtags- und
Kommunalwahlen sowie für Wahlen zum Europäischen Parlament.
Künstliche Intelligenz und Recht im Kontext von Industrie 4.0 - ERGEBNISPAPIER
Künstliche Intelligenz und Recht im Kontext von Industrie 4.0 - ERGEBNISPAPIER
2

Inhalt

Einführung: Worum geht es?  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  . 3

Künstliche Intelligenz und Rechtspersönlichkeit  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  . 5

Künstliche Intelligenz und Datenzugang sowie -schutz .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  . 8

Haftung  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  . 14

KI-generiertes IP .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  . 20

Arbeitsrecht .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  . 28

IT-Sicherheit und KI .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  .  . 31
Künstliche Intelligenz und Recht im Kontext von Industrie 4.0 - ERGEBNISPAPIER
3

Einführung: Worum geht es?

Künstliche Intelligenz (KI oder Artificial Intelligence, AI)
bezeichnet „Systeme, die intelligentes Verhalten zeigen,                   Der Begriff „Künstliche Intelligenz“ wurde
indem sie ihre Umgebung analysieren und – mit einem                        im Jahr 1956 von dem amerikanischen In­­for­
gewissen Grad an Autonomie – Maßnahmen ergreifen,                          matiker John McCarthy erfunden. Er be­­schrieb
um bestimmte Ziele zu erreichen. KI-basierte Systeme                       KI als ein Teilgebiet der Informatik, welches
können rein softwarebasiert sein, in der virtuellen Welt
                                                                           sich mit der Erforschung von Mechanismen
agieren (z. B. Sprachassistenten, Bildanalysesoftware, Such-
maschinen, Sprach- und Gesichtserkennungssysteme)                          des intelligenten mensch­lichen Verhaltens
oder KI kann in Hardwaregeräte eingebettet sein (z. B. fort-               befasst, wobei er insbesondere die Simulation
geschrittene Roboter, autonome Fahrzeuge, Drohnen oder                     von Spielsituationen mit Hilfe von Computer­
Internet of Things-Anwendungen).“ 1                                        programmen auf einer Rechenmaschine im
                                                                           Auge hatte.
KI-Systeme versuchen die kognitiven Fähigkeiten des
Menschen durch Algorithmen nachzubilden. Algorithmen
sind – einfach gesprochen – mathematische Handlungsan-                  KI“ zeichnet sich also dadurch aus, dass sie die anfänglich
weisungen (Steuerungsbefehle), die dafür sorgen, dass ein               noch existierende Determiniertheit verlässt.
Daten-Input in einen Daten-Output transformiert wird.
                                                                        Zum besseren Verständnis des Begriffspaares „schwache KI“
Dabei können die Handlungsanweisungen einerseits so aus­                vs. „starke KI“ mag ein kleines Beispiel aus der Fabrikplanung
gestaltet sein, dass der Algorithmus dazu auffordert, eine              und -steuerung dienen:3
Datenressource auf der Basis von eindeutig und endlich vor­
gegebenen Handlungsschritten nach Mustern und Zusam-                    In digitalisierten und vernetzten Fabriken kennen die dort
menhängen zu durchforsten und auszuwerten, um ein ganz                  implementierten Systeme (Maschinen, Mensch-Maschine-
bestimmtes Ziel zu erreichen bzw. ein bestimmtes Anwen-                 Hybride, Roboter-Systeme) schon heute ihre Fähigkeiten
dungsproblem zu lösen. Diese Form der KI, die sich im Rah-              und Ziele. Sie sind in der Lage, ohne eine zentrale Instanz
men der durch die Programmierung gesetzten Grenzen be­­                 selbständig mit ihrer Umwelt zu interagieren. Eine Produk-
wegt, bezeichnet man als „schwache KI“. Die Systeme sind                tionsmaschine ermittelt direkt oder auf der Grundlage einer
geschlossen und haben zumeist unterstützenden Charakter                 Big-Data-Analyse die Kundenwünsche, sie weiß, wo sie das
(z. B. automatisierte Diagnoseverfahren in der Medizin, Sprach-         Werkstück bestellen kann, interagiert mit Dienstleistern
und Gesichtserkennungssysteme, Aktienmarktanalysen).                    oder Zulieferern über IT- und Cloud-Systeme und lotst die
                                                                        Zulieferteile alleine durch die Weitergabe von Algorithmen
Davon zu unterscheiden ist die sog. „starke KI“. Sie wird zwar          über sensorgestützte Transport-, Abnahme- und Logistik-
noch durch einen Programmbefehl in Gang gesetzt, entwi-                 einheiten zur Weiterverarbeitung an die richtige Stelle in
ckelt sich allerdings nach einer maschinellen Anlern- und               der Fabrik. Es handelt sich dabei um sog. selbstregelnde
Trainingsphase selbständig weiter. Unter Einsatz der                    Maschinen und Systeme, die sowohl vertikal (also innerhalb
Methoden des Deep Learnings oder der künstlichen neuro-                 des Unternehmens) als auch horizontal (über die Unter-
nalen Netze erlangt sie kognitive Fähigkeiten und, da weder             nehmensgrenzen hinweg) miteinander verbunden sind.
das Ziel noch die Lösungsalternativen vorgegeben sind,                  Ein gutes Beispiel bilden robotergestützte Abfüllkonzepte
setzt sie eigene Kausalverläufe in Gang. Sie durchsucht bei-            für die individualisierte Getränkeherstellung in der Brau-
spielsweise verfügbare Datenressourcen nach neuen                       wirtschaft. Dabei holt die Abfüllmaschine im Online-Kun-
Erkenntnissen und verändert darauf aufbauend selbständig                denportal einer Brauerei den Auftrag des Kunden selbstän-
ihren ursprünglichen Algorithmus weiter. Die getroffenen                dig ein, anschließend ruft sie die für das gewünschte
Entscheidungen sind nicht mehr das abstrakt vorherbe-                   Mischverhältnis erforderlichen Produktzutaten ab, beauf-
stimmte Produkt einer eindeutigen Programmierung, son-                  tragt das flexible Füllsystem mit dem Mischen der Getränke
dern das Ergebnis eines autonomen Prozesses.2 Die „starke               und veranlasst anschließend die autonom arbeitenden

1   Kommission der Europäischen Union, High-Level Expert Group on Artificial Intelligence, 18.12.2018.
2   Ernst, JZ 2017, S. 1026, 1027.
3   Gesmann-Nuissl, InTeR 2018, Editorial.
Künstliche Intelligenz und Recht im Kontext von Industrie 4.0 - ERGEBNISPAPIER
4          EINFÜHRUNG: WORUM GEHT ES?

Produktionsmodule wie den Rinser, Füller, Verschließer und              Sobald die Maschinen und Systeme – z. B. die Abfüllanlage –
Etikettierer selbsttätig zur Aktion, bis das verkaufsfähige             losgelöst von einem ursprünglichen Programmbefehl auf der
Produkt entstanden ist. Gehen die Zutaten, Flaschenteile                Basis massenhaft verfügbarer und selbständig erhobener
oder Etiketten zur Neige, bestellt die Maschine selbsttätig             Daten und unter Inanspruchnahme ihrer zuvor im Wege
nach und löst die erforderlichen logistischen Prozesse aus.             des maschinellen Lernens antrainierten Fähigkeiten ganz
Auch Wartungsaufträge kann die Maschine selbständig                     eigene Entscheidungen treffen können, die sie in die Lage
erteilen – sie agiert dabei über sensorgesteuerte cyber-phy-            versetzen, nicht nur aus den vorgegebenen Handlungs­
sische Systeme. Dabei sind die Entscheidungsoptionen der                alternativen die geeignete Option selbst auszuwählen
Maschine in eindeutig und endlich definierten Handlungs-                („sauer“ = Zitrone oder Limette), sondern eigenständig voll-
schritten durch Algorithmen vorgegeben. In naher Zukunft                kommen neue Geschmacksrichtungen zu kreieren, die
werden diese dezentral interagierenden Einheiten die pro-               zuvor eben nicht von menschlicher Hand zur Auswahl
duktrelevanten Komponenten, Zusammensetzungen oder                      angelegt waren, handelt es sich um sog. selbstlernende
prozessrelevante Transport- und Auslieferungswege selb-                 Maschinen. Wenn sie sich neben dem Ermitteln menschlicher
ständig innerhalb der Wertschöpfungskette optimieren                    Neigungen oben­drein selbständig um die erforderlichen Roh­
können (sog. selbstoptimierende Maschine). Sofern wir bei               stoffe kümmert, Maschineneinstellungen und -steuerungs-
dem Beispiel der Abfüllanlage bleiben, können die Systeme               vorgänge selbständig ändert und den Herstellungsprozess
nun die Zutaten verändern, sprich anstatt Zitronen jetzt                autonom anleitet und überwacht, gegebenenfalls regelnd
Limetten bestellen, wenn bei der im Hintergrund ablaufen-               eingreift, hat man es mit einer „starken KI“ zu tun. Die Arte-
den Analyse der Kundenwünsche und -daten festgestellt                   fakte sind dann der menschlichen Steuerung entzogen – sie
würde, dass sich deren Neigungen in Richtung „sauer“                    setzen ihre eigenen Kausalverläufe in Gang, bestimmen
bewegen und der Steuerungsbefehl ein Entscheidungs­                     Arbeitsinhalte und Funktionsweisen nach eigenem Ermes-
muster „Limette“ zur Auswahl stellt.4 Bei beiden System­                sen – auch arbeitsteilig sowie betriebsübergreifend – und
varianten handelt es sich um eine Weiterentwicklung der                 übernehmen die abschließende Qualitätskontrolle mit dem
(unterstützenden) Fabrikautomatisierung über das Setzen                 Ziel einer ständigen Optimierung. Sie entwickeln kognitive
weiterer Programmbefehle. Allerdings gibt stets der Mensch              Fähigkeiten, gleich der menschlichen Intelligenz.
die mög­lichen Handlungsalternativen über die Programmie-
rung vor, es handelt sich – um in der Begriffswelt der Künst­           Eine solche „starke“ menschenähnliche KI wird es nach allen
lichen Intelligenz zu bleiben – um eine „schwache KI“.                  Experteneinschätzungen erst in ferner Zukunft geben. Rea-
                                                                        lität ist derzeit und wohl auch noch in absehbarer Zukunft
                                                                        die „schwache“ KI als eine enorm beschleunigte Automati-
                                                                        sierung von Prozessen mit einem unterstützenden und
                                                                        (scheinbar) intelligenten Verhalten.

4   In diese Richtung zielt auch die KI-Software Philyra, die aus der Zusammenarbeit zwischen dem deutschen Dufthersteller Symrise und dem
    Thomas J. Watson Research Center von IBM entstanden ist. Sie analysiert Daten von 1,7 Millionen Duftformeln aus dem Bestand von Symrise,
    prüft, welche sich an den diversen Märkten bewährt haben, und kreiert daraus neue Duftrezepturen. Anschließend werden die Rezepturen
    direkt an den Labor- bzw. Abfüllroboter weitergeleitet, der die Rohstoffe entsprechend der Vorgaben mischt.
Künstliche Intelligenz und Recht im Kontext von Industrie 4.0 - ERGEBNISPAPIER
5

Künstliche Intelligenz und
Rechtspersönlichkeit
Künstliche Intelligenz und Recht im Kontext von Industrie 4.0 - ERGEBNISPAPIER
6            KÜNSTLICHE INTELLIGENZ UND RECHTSPERSÖNLICHKEIT

             A: Steckbrief                                                    §        B: Juristische Einschätzung

Worum geht es bei dem Thema?                                               I. Zum Begriff der Rechtsperson nach geltendem Recht
                                                                              und Geschlossenheit des Systems der Rechtsperson
    Aufgrund der Tatsache, dass die automatisierten und
    teil-autonomen Systeme dem menschlichen Verhalten                      Als Rechtsperson (Rechtssubjekt) werden in unserem
    und dessen Fähigkeiten zumindest näherkommen und                       Rechtssystem Akteure bezeichnet, denen die Fähigkeit
    sich aufgrund der Vernetzung der Systeme auch eine                     zugewiesen ist, Träger von Rechten und Pflichten zu sein
    ge­wisse Unübersichtlichkeit und Unberechenbarkeit                     (sog. Rechtsfähigkeit). Nach geltendem Recht sind das
    einstellt, die es erschwert, Zuständigkeiten und Verant-               natürliche Personen, d. h. geborene und noch lebende Men-
    wortungen bei Fehlentscheidungen/-funktionen klar                      schen, sowie juristische Personen, als eine Zusammenfas-
    zuzuordnen und voneinander abzugrenzen, entsteht das                   sung von Personen und Sachen zu auf Dauer angelegten
    Bedürfnis, das Rechtssystem auf die neu entstehenden                   zweckgebundenen Organisationen. Weitere Rechtsperso-
    Bedürfnisse anzupassen. In diesem Zusammenhang wird                    nen kennt unsere Rechtsordnung nicht.
    auch erwogen, KI-Systeme mit einer eigenen Rechts­
    persönlichkeit auszustatten.5 Das Europäische Parlament                Allerdings fußt diese Einteilung auf einem rechtspolitischen
    hat insoweit eine „elektronische Persönlichkeit (ePerson)“             Willen, zwingend ist sie nicht. Anfänglich charakterisierte
    für intelligente Roboter und autonome Systeme vorge-                   Savigny die juristische Personenwelt noch entsprechend
    schlagen.6 Ob allerdings die Einführung einer solchen                  dem von Kant geprägten Zeitgeist, der bestimmte, dass der
    Rechtsperson, die als selbständiger Akteur mit eigenen                 Begriff der Person bzw. des Rechtssubjekts eng mit dem
    Rechten und Pflichten ausgestattet sein soll, tatsächlich              Begriff des Menschen zusammenfallen muss. In der Folge
    notwendig ist, muss angesichts der oben getroffenen Fest­              hat sich der juristische Personenbegriff von dieser zwin-
    stellungen, dass die „schwache“ KI auch bis auf Weiteres               genden Bindung an den Menschen gelöst. Die Erkenntnis
    einem menschlichen Handeln zugerechnet werden kann,                    ging dann vielmehr dahin – und wurde auch durch zahlreiche
    hinterfragt werden.                                                    rechtsphilosophische Schriften7 begleitet –, dass Rechtsper-
                                                                           sonen alleine juristische Zurechnungspunkte verkörpern und
                                                                           als solche nicht vorgegeben sind. Insofern wurde es auch
Leitfragen                                                                 als zulässig erachtet, dass Rechtspersonen nicht mehr aus-
                                                                           schließlich über natürliche Personen repräsentiert werden,
• Ist die Einführung einer neuen Rechtspersönlichkeit als                  sondern z. B. auch soziale Substrate von Organisationen als
     selbständiger Akteur mit eigenen Rechten und Pflichten                Repräsentant von Rechten und Pflichten gelten können, die
     erforderlich?                                                         weder über Wille, Bewusstsein noch Emotionalität verfügen.
                                                                           Selbst Organisationen ohne personelles Substrat ließ man
• Gibt es Verantwortungslücken, die den Einsatz einer                      als Repräsentanten zu. Radbruch fasste dies im Jahr 1905
     neuen Rechtspersönlichkeit/ePerson beim Einsatz                       pointiert wie folgt zusammen:
     schwacher KI-Systeme erforderlich machen?
                                                                             „Person zu sein, ist das Ergebnis eines Personifikationsakts
                                                                             der Rechtsordnung. Alle Personen, die physischen wie die
                                                                             juristischen, sind Geschöpfe der Rechtsordnung. Auch
                                                                             natür­liche Personen sind im strengsten Sinne ‚juristische
                                                                             Personen‘.“

5     Bräutigam/Rücker, E-Commerce, 14 B Rn. 4; Pieper, DSRITB 2016, 971, 978; Mayinger, Die künstliche Person, 2016, S. 65 f.
6     Entschließung des Europäischen Parlaments v. 16.02.2017 mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich
      Robotik (2015/2103/INL), S. 28.
7     U. a. Savigny, Gierke, Brinz&Hauriou, Radbruch.
Künstliche Intelligenz und Recht im Kontext von Industrie 4.0 - ERGEBNISPAPIER
KÜNSTLICHE INTELLIGENZ UND RECHTSPERSÖNLICHKEIT                          7

Mit der Erkenntnis, dass die Etablierung von Rechtspersön-      Ganz allgemein wird man auch zu prüfen haben, ob sich
lichkeiten einem innerjuristischen (Zurechnungs-)Akt ge­­       eine solche Rechtsperson mit verfassungsrechtlichen und
schuldet ist, lässt sich durchaus auch über die Einführung      internationalen Grundsätzen vereinbaren lässt. Die Rechts-
einer weiteren Rechtsperson in Form einer „ePerson“ disku-      subjektqualität steht z. B. in vielerlei Hinsicht mit der Men-
tieren – sie wäre einführbar –, wenngleich damit weitere        schenwürde in unmittelbarem Zusammenhang. Attribute
Fragestellungen einhergehen.                                    wie Moral und Willen spielen bei den in der geltenden
                                                                Rechtsordnung etablierten Rechtspersonen eine erhebliche
                                                                Rolle und sind verhaltensleitend. Selbst bei juristischen
II. Zur Frage der Verantwortungszuweisung und                  Personen, die ihre Rechtsfähigkeit auch ohne ein personel-
    Betrachtung der Rechtsfolgen                                les Substrat erhalten können, verhält es sich so, da sie
                                                                zumindest von einem Zusammenschluss natürlicher Perso-
Die sich in diesem Zusammenhang zuerst aufdrängende             nen geschaffen worden sind. Insofern müsste geklärt wer-
Frage ist natürlich, ob es solche Verantwortungslücken im       den, wie die genannten Attribute in die KI-Systeme imple-
Zusammenhang mit der „schwachen KI“ überhaupt gibt.             mentiert werden können, um den Wertvorstellungen der
Erfordert die „schwache KI“ tatsächlich die Einführung          Rechtsordnung gerecht zu werden.
einer Rechtsperson „ePerson“? Letzteres wäre wohl nur zu
rechtfertigen, falls juristische Zurechnungspunkte/-sub-
jekte sowie verantwortlich agierende Akteure tatsächlich                   C: Handlungsempfehlungen
fehlen, was im Einzelnen für die Bereiche des Zivilrechts,                 
Strafrechts und öffentlichen Rechts zu prüfen wäre. Dabei       Die Notwendigkeit, eine ePerson jetzt zu schaffen, wird
sollten insbesondere Fragen zur Verantwortungszuweisung         nicht gesehen. Alle sich derzeit stellenden Probleme sind
und Haftung bei technischem Versagen und der Inverkehr-         im Rahmen der bestehenden Rechtsordnung lösbar (siehe
gabe fehlerhafter technischer Systeme in Augenschein            die anderen Steckbriefe). Die KI-Systeme haben bislang
genommen werden. Berührungsbereiche bestehen hier ins-          nicht den Grad an Autonomie erreicht, dass eine Anknüp-
besondere zum Vertragsrecht (Vertragsschlüsse durch auto-       fung an ein menschliches Verhalten nicht mehr möglich
matisierte und teil-autonome Systeme und vertragliche           wäre. Vielmehr können die Verantwortungslücken durch
Haftung), dem Deliktsrecht (außervertragliche Haftung           eine behutsame Weiterentwicklung bestehender Regelun-
nach § 823 BGB, Produkthaftungsrecht, StVG etc.) sowie          gen geschlossen werden (siehe auch die anderen Steck-
dem Produkt- bzw. Produktsicherheitsrecht.                      briefe; v. a. im Bereich der Verantwortungszuweisung im
                                                                Kontext von Haftung).
Ferner ist auf Rechtsfolgenseite zu überlegen, inwieweit eine
ePerson – so sie denn überhaupt als unmittelbar oder mit-
telbar Verantwortliche zu rechtfertigen ist – in Anspruch
genommen werden könnte. Welche Rechtsfolgen ergeben
sich aus der Einführung einer solchen Rechtsperson und
welche Änderungen würden sich in der gesamten Gesetzes-
systematik ergeben? Muss neben die technische Autonomie
auch eine Verantwortungsautonomie treten, d. h. muss die
ePerson mit einer eigenen Haftungsmasse ausgestattet
werden, um entstehende Schäden regulieren zu können?
Die Vermögensfähigkeit muss wohl denknotwendig mit
der Rechtsfähigkeit einhergehen. Rechtsfähigkeit und Ver-
mögensfähigkeit bedingen sich gegenseitig –, auch bei den
bestehenden Rechtspersonen –, so dass auch hier Lösungen
erarbeitet werden müssten.
Künstliche Intelligenz und Recht im Kontext von Industrie 4.0 - ERGEBNISPAPIER
8

Künstliche Intelligenz und
Datenzugang sowie -schutz
K Ü N S T L I C H E I N T E L L I G E N Z U N D D AT E N Z U G A N G S O W I E -S C H U T Z   9

          A: Steckbrief                                               Welche Fragen/Herausforderungen ergeben sich für
                                                                      Industrie 4.0?

Worum geht es bei dem Thema?                                          Die DSGVO und deren Auslegung durch die Aufsichtsbe-
                                                                      hörden stellen zum Teil hohe Anforderungen an den
 Mechanismen der Künstlichen Intelligenz spielen im                   Umgang mit Daten in Hinblick auf Einsatz und Weiterent-
 Umfeld der Industrie 4.0 eine zunehmend wichtige                     wicklung von KI-Systemen im Bereich der Industrie 4.0.
 Rolle, z. B. bei der Qualitätskontrolle am Ende des Ferti-           Hier sind u. a. folgende Fragen klärungsbedürftig:
 gungsprozesses, der Predictive Maintenance, bei Assis-
 tenztätigkeiten durch Roboter, aber auch im HR- und                  • Welche Vorteile bringt die Pseudonymisierung von
 Weiterbildungsbereich. Auch die Kommunikationspro-                       Datensätzen, v. a. in Bezug auf eine mögliche Interessen-
 zesse zwischen Mensch und Maschine verändern sich                        abwägung?
 zunehmend. Computersysteme und Roboter verstehen
 und „sprechen“ die menschliche Sprache, z. B. um im                  • Wie können Daten, die für einen bestimmten Zweck
 Rahmen von Wartungsarbeiten mit Problemanalysen                          erfasst wurden (z. B. die Qualitätskontrolle), vor dem
 und Reparaturhinweisen zu unterstützen.                                  Hintergrund des Grundsatzes der Zweckbindung (Art. 5
                                                                          Abs. 1 Buchst. b DSGVO) für andere Zwecke (Training
 Muster- und Spracherkennung, maschinelles Lernen                         von KI-Systemen zur Optimierung der Supply Chain)
 und die Weiterentwicklung von KI-Anwendungen beru-                       eingesetzt werden?
 hen auf Daten. Daten sind nichts weniger als die Essenz
 der Digitalisierung im Allgemeinen und der KI im Spezi-              • Wie wirkt sich der Grundsatz der Datenminimierung
 ellen. Dabei kommt es neben der reinen Verfügbarkeit                     (Art. 5 Abs. 1 Buchst. c DSGVO) und des Datenschutzes
 nicht nur auf die Masse an Daten, sondern auch auf                       durch Technikgestaltung (Art. 25 Abs.1 DSGVO) auf den
 deren Qualität.                                                          gewinnbringenden Einsatz von KI in der Industrie 4.0 aus?

 Die genutzten Daten weisen auch im industriellen                     • Wie werden automatisierte Entscheidungen im Einzel-
 Kontext oftmals einen mittelbaren oder unmittelbaren                     fall einschließlich Profiling im Kontext selbstlernender
 Personenbezug auf, da sie mit einer bestimmten oder                      und autonomer Systeme in Hinblick auf Art. 22 DSGVO
 bestimmbaren natürlichen Person, die mit KI-Systemen                     behandelt?
 interagiert, verknüpft sind. Hierdurch kommen die
 Regelungen der Datenschutz-Grundverordnung                           • Welche Änderungen der DSGVO und deren Umsetzungs­­
 (DSGVO) zur Anwendung, auch wenn im Rahmen der                           gesetze wären zweckmäßig, um einem Einsatz von
 Datenverarbeitung die natürliche Person, zu der ein                      KI-Systemen und deren Weiterentwicklung in der
 (theoretischer) Bezug hergestellt werden kann, keine                     Industrie 4.0 Rechnung tragen zu können?
 faktische Rolle spielt.
                                                                      • Wie kann die Transparenz und Erklärbarkeit von
 Neben dem Schutz personenbezogener Daten stellen                         KI-Systemen erhöht werden?
 sich bei KI-Systemen zusätzlich Fragen nach der Trans-
 parenz eingesetzter Algorithmen und ihrer Entschei-                  • Wie kann ein besserer Zugang zu Daten des öffentlichen
 dungen sowie dem Zugang zu Trainingsdatensätzen für                      Sektors sichergestellt werden, so dass KI-Systeme eine
 KI. Empfehlungen von KI-basierten Systemen sollten für                   bessere Datenausstattung v. a. für Trainingszwecke
 den Nutzer nachvollziehbar sein. Inkorrekte oder gar                     erhalten?
 diskriminierende Entscheidungen (sog. maschinelles
 „Bias“), die auf unvollständigem und einseitigem Daten-
 material beruhen, müssen soweit möglich erkenn- und
 behebbar sein.
10        K Ü N S T L I C H E I N T E L L I G E N Z U N D DAT E N Z U G A N G S O W I E -S C H U T Z

     §     B: Juristische Einschätzung                                         Neben der DSGVO spielt auch die künftige e-Privacy-Ver-
                                                                               ordnung eine erhebliche Rolle, v. a. im Kontext des Zugriffs
                                                                               auf Endgeräte des Nutzers. Auch hier ist die Möglichkeit der
I. Pseudonymisierung von Datensätzen                                           Weiterverarbeitung pseudonymer Daten als Alternative zu
                                                                               Einwilligung und Anonymisierung vorzusehen, so dass die
Pseudonymisierung kann als besondere Schutzmaßnahme                            notwendigen Datenmengen bereitgestellt werden können.
Datenschutzrisiken minimieren. Im Rahmen der Pseudony-                         Der Anwendungsrahmen der e-Privacy-Verordnung für
misierung wird die Zuordnung der Daten zu einer bestimm-                       nicht-personenbezogene Daten muss in Hinblick auf einen
ten oder bestimmbaren Person erschwert. Der Name oder                          innovationsfreundlichen und wettbewerbsfähigen Industrie
das sonstige Identifikationsmerkmal einer Person wird in                       4.0-Standort in Deutschland insofern eingeschränkt werden.
diesem Fall durch einen Code ersetzt, bspw. durch Zahlen-                      Maschinendaten, die im industriellen Kontext verwendet
oder Buchstabenkombinationen. Die Zuordnungstabelle                            werden und keinen Personenbezug aufweisen, müssen zwar
zwischen Code und Einzelperson muss dabei verborgen                            vertraulich behandelt werden, aber ein noch höheres Schutz­
bleiben, so dass im Rahmen der Verarbeitung nur das Pseu-                      niveau, als es für personenbezogene Daten durch die DSGVO
donym verwendet wird. Dadurch können Daten einer Nach­­                        gilt, ist weder erforderlich noch einem innovativen und
nutzung zugeführt werden, ohne dass im Besonderen                              Industrie 4.0-freundlichen Standort zuträglich.
Betroffenenrechte negativ tangiert werden.

Diese Risikominimierung verfängt letztlich aber nur in der                     II. Datenerfassung für einen bestimmten Zweck
Anwendungspraxis, wenn hier Erlaubnistatbeständen jen-
seits einer informierten Einwilligung (etwa die Datenverar-                    Auch hier wäre es aus Sicht der Plattform Industrie 4.0 ziel-
beitung auf Grundlage berechtigter Interessen nach Art. 6                      führend, wenn seitens der Aufsichtsbehörden eine abwägende
Abs. 1 Buchst. f DSGVO) seitens der Aufsichtsbehörden auch                     Anwendungsinterpretation erfolgen würde. Regulierungs-
in der Praxis Bedeutung zugemessen werden. Ansonsten                           ziel der Zweckbindung ist es, einer nicht nachvollziehbaren
bestünde kein Anreiz, Maßnahmen wie die Pseudonymisie-                         Nutzung von personenbezogenen Daten entgegenzuwirken.
rung, die potentiell eine geringere Eingriffstiefe in das All-                 Diesem Schutzziel kann auch hier dadurch Rechnung ge­­
gemeine Persönlichkeitsrecht aufweisen, auch anzuwen-                          tragen werden, dass technische Schutzmechanismen (bspw.
den. Dies gilt insbesondere im Rahmen der Industrie 4.0,                       die Pseudonymisierung) dieses Ziel faktisch realisieren. Dem­
wo Daten oftmals einen entfernten Personenbezug aufwei-                        nach sollten solche Datenverarbeitungspraktiken, die eine
sen, der aber bei der Datenverarbeitung – bspw. im Bereich                     entsprechende Schutzwirkung entfalten, im Rahmen der
der M2M-Kommunikation – nicht im Vordergrund steht                             Abwägung der Weiterverwendung von Daten für kompatible
bzw. unerheblich ist.                                                          Zwecke nach Art. 6 Abs. 4 DSGVO angemessen gewichtet
                                                                               werden. Darüber hinaus sollte anerkannt werden, dass das
Durch die angemessene Berücksichtigung der Pseudony-                           Anlernen von KI-Systemen in der Anwendungsauslegung
misierung im Rahmen der Interessenabwägung des Art. 6                          der DSGVO einen hinreichend eindeutig festgelegten sowie
Abs. 1 Buchst. f DSGVO kann gewährleistet werden, dass                         legitimen Zweck darstellt.
KI-Systeme notwendigen Datenzugang erhalten, mit denen
das System erkenntnisgewinnend arbeiten kann. Gleichzei-
tig wird die Privatsphäre des Einzelnen in der praktischen                     III. Auswirkungen des Grundsatzes der Datenminimierung
Anwendung sogar besser geschützt, als dies im Rahmen einer                          und des Datenschutzes durch Technikgestaltung
informierten Einwilligung möglich wäre.
                                                                               In der Wechselwirkung zwischen Datenerfordernis für
Gerade im Hinblick auf die Notwendigkeit, große Daten-                         KI-Systeme und dem Gebot der Datensparsamkeit ist sicher-
mengen für das maschinelle Lernen bereitzustellen, ist                         lich noch die Schaffung einer notwendigen Evidenzbasis
Pseudonymisierung eine geeignete Lösung, um die Ent-                           notwendig. Dennoch ist ein besonderes Interesse daran
wicklung innovativer KI-Anwendungen unter Gewährleis-                          festzustellen, dass der Grundsatz der Datenminimierung in
tung eines technisch hohen Datenschutzes für den einzel-                       einem potentiellen, aber auflösbaren Spannungsverhältnis
nen Nutzer zu ermöglichen.                                                     mit dem Erfordernis steht, dass KI-Systeme grundsätzlich
                                                                               ein quantitativ und qualitativ hohes Maß an Daten erfordern.
                                                                               Eine ausgewogene Balance ist notwendig, um auch die
K Ü N S T L I C H E I N T E L L I G E N Z U N D D AT E N Z U G A N G S O W I E -S C H U T Z   11

gesellschaftlich gewünschte Akzeptanz und somit die posi-            Denn unabhängig von entsprechenden rechtlichen Ver-
tiven Effekte, die mit dem Einsatz Künstlicher Intelligenz           pflichtungen ist ein gegenüber dem Nutzer transparenter
einhergehen, erzielen zu können.                                     Einsatz von KI-Anwendungen aus Sicht der Plattform
                                                                     Industrie 4.0 essentiell. Insofern können nur dann rechts-
Jedoch muss auch klar sein, dass im rein industriellen Kon-          verbindliche automatisierte Entscheidungen getroffen
text andere Maßstäbe gelten müssen als beispielweise im              werden, wenn der Nutzer hierüber in einem entsprechen-
Bereich des KI-Einsatzes durch Verbraucher. Mit Rückgriff            den Einwilligungsprozess oder Vertragsschluss entsprechend
auf Erwägungsgrund 78 der DSGVO erscheint es auch hier               Art. 22 DSGVO informiert wurde.
geboten, risikominierende Faktoren wie die Pseudonymi-
sierung dergestalt zu bewerten, dass die Einhaltung ent-             Allerdings darf dies nicht dazu führen, dass solche auf selbst­
sprechender Maßnahmen das Schutzziel, welches durch den              lernenden Systemen basierenden automatisierten Entschei-
Grundsatz der Datenminimierung angestrebt wird, erfüllt.             dungsprozesse, die keine unmittelbare Wirkung für den
                                                                     Betroffenen entfalten, mit Rückgriff auf Art. 22 nicht durch­
                                                                     führbar sind. Auch hier gilt es, dass solche Schutzmaßnahmen
IV. Automatisierte Entscheidungen im Einzelfall einschließ­         positiv bewertet werden sollten, die v. a. darauf abstellen,
    lich Profiling im Kontext selbstlernender und autono­            die Privatsphäre des Einzelnen adäquat zu schützen.
    mer Systeme

Grundsätzlich ist es von besonderem Interesse, dass Nutzer
die Kontrolle über die Verwendung ihrer Daten behalten.
Dazu gehört auch die Aufklärung darüber, wie datengetrie-
bene Geschäftsmodelle funktionieren und wie Anwender
in der Industrie 4.0 ihre digitale Souveränität wahrnehmen
können.
12        K Ü N S T L I C H E I N T E L L I G E N Z U N D DAT E N Z U G A N G S O W I E -S C H U T Z

V. Änderungen der DSGVO und deren Umsetzungsgesetze                           Grundsätzlich sollten Kunden stets wissen, ob sie mit einem
   zur Förderung des Einsatzes von KI-Systemen und                             Menschen oder einem KI-System kommunizieren. Dabei
   deren Weiterentwicklung in der Industrie 4.0                                muss dem Nutzer gegenüber offengelegt sein, welche Kun-
                                                                               dendaten für KI-Systeme genutzt werden. Eine grundsätz­
In der bis 2020 vorzunehmenden Evaluierung der DSGVO                           liche Offenlegungspflicht für KI-Implementierungen oder
sollte dem Umstand Rechnung getragen werden, dass                              trainierte KI-Modelle sollte vermieden werden, da andern-
Datenvielfalt und Datenschutz keine widersprüchliche                           falls ein tiefer Eingriff in Geschäftsgeheimnisse und geistiges
Ausrichtung darstellen. Vielmehr noch muss anerkannt                           Eigentum vorläge, der die KI-Entwicklung ausbremsen würde.
werden, dass die DSGVO bislang den individuellen Schutz-
anspruch des Einzelnen nicht immer in einen interessen-                        Forschung zur Rechenschaftspflicht und Erklärbarkeit von
gerechten Ausgleich mit anderen schutzwürdigen Interes-                        KI sollte stärker gefördert werden, um technische Ansätze
sen bringen kann. So ist bspw. die medizinische Diagnostik                     für KI-Transparenz weiterzuentwickeln. Gleiches gilt für An­­­
auf eine möglichst breite Datenbasis angewiesen. Eine zu                       sätze zur Sensibilisierung von Entwicklern und Anwendern
repressive Auslegung des Datenschutzes führt dazu, dass                        zu den ethischen Grenzen von KI.
der medizinische Nutzen für den Einzelnen nicht gehoben
werden kann. Mittlerweile ist es aber gesamtgesellschaft­
licher Konsens, dass ein gewisses Maß an Datenreichtum                         VII. Zugang zu Daten des öffentlichen Sektors
notwendig ist, um die digitale Transformation weiterhin
gewinnbringend für die gesamte Gesellschaft zu entwickeln.                     Maschinelles Lernen von KI-Systemen erfordert Trainings-
Gerade in Hinblick auf Industrie 4.0 muss noch stärker                         daten. Der Erfolg von KI hängt in einem hohen Maße von
zwischen solchen Fällen differenziert werden, in denen das                     der Verfügbarkeit von Daten ab. Diese Daten müssen quali-
allgemeine Persönlichkeitsrecht einer natürlichen Person                       tativ hochwertig, glaubwürdig, zeitnah und in einheitlichen,
verletzt werden kann, und Fällen, in denen ein Personen­                       maschinenlesbaren Formaten vorliegen. KI-Anwendungen
bezug ggf. vorliegt, aber nur am Rande (im Rahmen einer                        können letztlich nur so gut sein wie die Daten, die verarbei-
„industriellen“ Datenverarbeitung) berührt ist.                                tet werden. Eine wichtige und bislang weitgehend ungenutzte
                                                                               Quelle für Trainingsdaten sind Behörden, die riesige Daten-
Insofern muss im Rahmen einer Evaluierung die Ausrich-                         mengen ansammeln und abspeichern:
tung der Regulierung an den grundlegenden Prinzipien
Datensparsamkeit und Zweckbindung dahingehend in                               Daher sind die Bestrebungen der Europäischen Kommission
Frage gestellt werden, dass hinsichtlich der Nutzerakzep-                      begrüßenswert, die gemeinsame Datennutzung im öffent­
tanz von Datenverarbeitung vielmehr Fragestellungen der                        lichen Sektor zu fördern, u. a. im Wege der Überarbeitung
Transparenz von (auch automatisierten) Entscheidungen                          der Richtlinie über die Weiterverwendung von Informatio-
im Vordergrund stehen sollten. Dabei gilt es sicherzustel-                     nen des öffentlichen Sektors (PSI-Richtlinie).
len, dass es nicht um die genaue Nachvollziehbarkeit einer
jeden Algorithmen-basierten Rechneroperation gehen kann                        Öffentliche Daten sollten KI-Entwicklern und -Anwendern
als vielmehr um deren grundsätzliche Erklärbarkeit.                            über offene Datenportale in standardisierter, maschinen-
                                                                               lesbarer Form zur Verfügung gestellt werden. Dazu sollten
                                                                               erforderliche Standards entwickelt und Engpässe beim
VI. Transparenz und Erklärbarkeit von KI-Systemen                              Zugang zu öffentlichen Daten abgebaut werden.

Nur ein möglichst transparenter Umgang mit KI kann das                         Ein darüber hinausgehender regulierter Zugang zu Daten
Vertrauen von Menschen in ein autonom arbeitendes und                          des Privatsektors wäre jedoch nicht zielführend. So würde
entscheidendes System schaffen. Zur Sicherstellung von                         eine verpflichtende Öffnung von Datenbeständen dem
Transparenz sieht die DSGVO bei rein automatisierten Ent-                      inhärenten Risiko ausgesetzt sein, dass auch und gerade im
scheidungen umfassende Informationspflichten und ein                           Bereich maschinell erhobener Daten eine nicht sachge-
Recht des Betroffenen auf eine menschliche Überprüfung                         rechte Daten­sparsamkeit Einzug halten würde, die die wei-
einer automatisierten Entscheidung vor.                                        tere Entwicklung von digitalen Technologien ausbremsen
                                                                               würde. Auch ist ein Marktversagen, das eine entsprechende
                                                                               Regulierung rechtfertigen würde, nicht erkennbar. Bereits
                                                                               heute kooperieren Telekommunikationsanbieter erfolgreich
K Ü N S T L I C H E I N T E L L I G E N Z U N D D AT E N Z U G A N G S O W I E -S C H U T Z   13

mit öffentlichen Stellen, wenn es z. B. um intelligentes Ver-         Unabhängig von entsprechenden rechtlichen Verpflichtun-
kehrsmanagement durch entsprechende Analyse und Aus-                  gen ist ein gegenüber dem Nutzer transparenter Einsatz
wertung von Standortinformationen geht.                               von KI-Anwendungen aus Sicht der Plattform Industrie 4.0
                                                                      essentiell. Auf selbstlernenden Systemen basierende auto-
Der Grundsatz der Vertragsfreiheit und ein freiwilliger Open-­        matisierte Entscheidungsprozesse, die keine unmittelbare
Data-Ansatz sollten im KI-Kontext Bestand haben. Unter-               Wirkung für den Betroffenen entfalten, müssen jedoch
nehmen müssen frei entscheiden können, wem und unter                  durchführbar bleiben.
welchen Bedingungen sie Zugang zu ihren nicht-personen-
bezogenen Daten gewähren, sei es im Wege von Datenpart-               In der bis 2020 vorzunehmenden Evaluierung der DSGVO
nerschaften im B2B-Bereich oder durch vertragliche Ver-               sollte dem Umstand Rechnung getragen werden, dass
einbarungen mit öffentlichen Stellen.                                 Datenvielfalt und Datenschutz keine widersprüchliche
                                                                      Ausrichtung darstellen. Vielmehr noch muss anerkannt
                                                                      werden, dass die DSGVO bislang den individuellen Schutz-
           C: Handlungsoptionen und                                  anspruch des Einzelnen nicht immer in einen interessen-
              Handlungsempfehlungen                                   gerechten Ausgleich mit anderen schutzwürdigen Interes-
                                                                     sen bringen kann.
Durch die angemessene Berücksichtigung der Pseudony-
misierung im Rahmen der Interessenabwägung des Art. 6                 Forschung zur Rechenschaftspflicht und Erklärbarkeit von
Abs. 1 Buchst. f DSGVO kann gewährleistet werden, dass                KI sollte stärker gefördert werden, um technische Ansätze
KI-Systeme notwendigen Datenzugang erhalten, mit denen                für KI-Transparenz weiterzuentwickeln. Gleiches gilt für
das System erkenntnisgewinnend arbeiten kann.                         Ansätze zur Sensibilisierung von Entwicklern und Anwen-
                                                                      dern zu den ethischen Grenzen von KI.
Darüber hinaus sollte anerkannt werden, dass das Anlernen
von KI-Systemen in der Anwendungsauslegung der DSGVO                  Öffentliche Daten sollten KI-Entwicklern und -Anwendern
einen hinreichend eindeutig festgelegten sowie legitimen              über offene Datenportale in standardisierter, maschinen-
Zweck darstellt.                                                      lesbarer Form zur Verfügung gestellt werden. Dazu sollten
                                                                      erforderliche Standards entwickelt und Engpässe beim
Mit Rückgriff auf Erwägungsgrund 78 der DSGVO erscheint               Zugang zu öffentlichen Daten abgebaut werden. Ein darüber
es geboten, risikominierende Faktoren wie die Pseudony-               hinausgehender regulierter Zugang zu Daten des Privat­
misierung dergestalt zu bewerten, dass die Einhaltung ent-            sektors wäre jedoch nicht zielführend.
sprechender Maßnahmen das Schutzziel, welches durch
den Grundsatz der Datenminimierung angestrebt wird,
erfüllt.
14

Haftung

          §
HAFTUNG              15

             A: Steckbrief                                                sich ganz überwiegend auf die Unterstützung des Nutzers
                                                                          bei Datenanalyse und Prozessoptimierung.8

Worum geht es bei dem Thema?                                              Die bisherigen juristischen Analysen der Plattform Indus-
                                                                          trie 4.0 haben für Szenarien der Industrie 4.0 keine haf-
    Auch wenn die Entwicklung noch am Anfang steht, halten                tungsrechtlichen Regelungslücken im geltenden Recht
    in der Industrie 4.0 IT-Systeme Einzug, die mit Künstlicher           identifiziert. Einzig für den Bereich von Schadensfällen
    Intelligenz (KI) arbeiten. Unter dem Schlagwort „Künst-               in einer Industrie 4.0-Fertigungsstätte wurde der Politik
    liche Intelligenz“ (KI) werden Informatik-Anwendungen                 anheimgestellt, über eine Weiterentwicklung des Haft-
    verstanden, die intelligentes Verhalten nachbilden und                pflichtgesetzes nachzudenken. Die gefundenen Ergebnisse
    zu maschinellem Lernen fähig sind. Dabei wird unter-                  sollen im Rahmen dieses Steckbriefs für Szenarien in der
    schieden zwischen Expertensystemen und sog. neuro­                    Industrie 4.0 überprüft werden, in denen KI zum Einsatz
    nalen Netzen. Expertensysteme nutzen menschliches                     kommt.
    Expertenwissen aus bestimmten Fachgebieten, das in
    computergerechte Modelle und Regeln übersetzt wurde.
    Die Ausgabeergebnisse von Expertensystemen sind anhand               Welche Fragen/Herausforderungen ergeben sich für
    von Regeln vorab definiert und lassen sich im Einzelnen              Industrie 4.0?
    nachvollziehen und erklären. Neuronale Netze werden
    in sehr grober Anlehnung an das menschliche Gehirn als               • Welche Haftungsregime stehen zur Auswahl –
    Schichten miteinander verbundener künstlicher Neuro-                    Vorüberlegungen
    nen konzipiert. Durch Lernalgorithmen werden die neu-
    ronalen Netze in einem Trainingsprozess dazu befähigt,               • Ist das Produkthaftungsgesetz auf KI-Systeme anwend-
    Muster und Korrelationen in einem Datenbestand zu                       bar (m. a. W. ist ein KI-System Produkt i. S. d. ProdHaftG)?
    erkennen. Mittels Entscheidungsalgorithmen können
    die im Trainingsprozess gewonnenen Lernergebnisse auf                • Haftet der Hersteller im Sinne der Produzentenhaftung
    neue Datenbestände übertragen werden. Je komplexer                      für die KI?
    und vielschichtiger neuronale Netze aufgebaut sind, desto
    schwieriger wird es, die Verarbeitungs- und Entscheidungs-           • Sind die bisherigen Ergebnisse der AG4 vor diesem
    mechanismen und die Lernschritte des Systems nach­                      Hintergrund beim Einsatz von KI haltbar?
    zuvollziehen. Aufgrund der Vielzahl von Parametern,
    Variablen und Interdependenzen innerhalb eines neuro-
    nalen Netzes lassen sich Lernvorgänge und Ausgabe-
    muster nicht exakt, sondern nur annäherungsweise
    innerhalb einer gewissen Bandbreite von möglichen
                                                                §                    B: Ethische Vorüberlegungen

    Ergebnissen vorhersagen.                                             Der Mensch entwickelt KI-Systeme und setzt sie für seine
                                                                         Zwecke ein. Die Verantwortlichkeit für den Einsatz von KI
    Voraussetzung für die Funktionstüchtigkeit selbstlernen-             und dessen Folgen dürfen dabei aber nicht an die Technik
    der Systeme ist neben der Auswahl eines geeigneten                   übergeben werden. Solange (natürliche oder juristische)
    neuronalen Netzes eine fehlerfreie Programmierung der                Personen für die Folgen der KI-Nutzung haftbar bleiben,
    Lern- und Entscheidungsalgorithmen und die Bereitstel-               bleibt ein Eigeninteresse des möglicherweise Haftenden
    lung ausreichender und tendenzfreier Trainingsdaten.                 erhalten, die KI und ihre Ergebnisse zu kontrollieren. Soweit
    Künstliche Intelligenz kommt aktuell vor allem dann zum              gesellschaftlicher Konsens darüber besteht, dass Menschen
    Einsatz, wenn große Datenmengen schnell zu analysieren               beim Einsatz von KI verantwortlich bleiben sollen, können
    sind und aus dieser Analyse Muster und Entscheidungs-                die Haftungsgrundsätze des geltenden Rechts (ggf. mit klei-
    bzw. Handlungsempfehlungen abgeleitet werden sollen.                 neren Modifikationen) weiterhin angewendet werden.
    Die Einsatzszenarien für KI-Systeme in der Industrie
    sind jedoch derzeit noch sehr begrenzt und beschränken

8     Nach einer Mitgliederbefragung des VDI aus dem April 2018 wird KI nur in 7 % der befragten KMU und in 12,6 % der befragten Großunter-
      nehmen und überwiegend für Datenanalysen eingesetzt (vgl. „Künstliche Intelligenz – VDI-Statusreport Oktober 2018“, S. 21)
16           HAFTUNG

     §       C: Juristische Einschätzung                                    • Instruktionspflichten (der Hersteller muss den Nutzer
                                                                                über Bedienung und mögliche Gefahrenquellen des Pro-
                                                                                dukts informieren),
I. Welche Haftungsregime stehen zur Auswahl? –
   Vorüberlegungen                                                          • Produktbeobachtungspflichten (der Hersteller muss
                                                                                Hinweisen auf Fehler und Gefährdungspotenzial seiner
Die Verantwortlichkeit der Hersteller von Produkten, die                        Produkte nachgehen) und
Künstliche Intelligenz nutzen, richtet sich im Wesentlichen
nach den Vorgaben der Produkt- und Produzentenhaftung.                      • Gefahrabwendungspflichten (der Hersteller muss erkannte
                                                                                Gefahren bei Gebrauch seiner Produkte beseitigen und
Produkthaftung: Nach dem Produkthaftungsgesetz (Prod-                           notfalls das Produkt aus dem Markt zurückrufen).
HaftG) haftet ein Unternehmen als Hersteller verschuldens­
unabhängig, wenn ein von ihm in Verkehr gebrachtes Pro-                     Außer für Verletzungen an Körper, Gesundheit und Eigen-
dukt einen Fehler aufweist und dieser Fehler dazu führt,                    tum muss ein Produzent nach § 823 Abs. 1 BGB auch haf-
dass ein Mensch getötet, sein Körper oder seine Gesundheit                  ten für Schäden, die an eigentumsgleichen Rechten, dem
verletzt oder eine Sache, die für den privaten Gebrauch                     Recht am eingerichteten und ausgeübten Gewerbebetrieb
oder Verbrauch bestimmt ist, beschädigt wird. Eine Haf-                     und aufgrund einer Verletzung des allgemeinen Persönlich-
tung nach dem ProdHaftG kann insbesondere ausgelöst                         keitsrechts entstanden sind. Auch nach § 823 Abs. 1 BGB
werden durch:                                                               sind reine Vermögensschäden allerdings nicht zu ersetzen.

• Konstruktionsfehler (Verstoß gegen technische Erkennt-                    Zu untersuchen ist im Folgenden, wie diese Rechtsgrund-
     nisse bei der Herstellung),                                            sätze auf mögliche Schäden durch Produkte anzuwenden
                                                                            sind, die KI nutzen.
• Fabrikationsfehler (Abweichungen von den Konstruktions-
     vorgaben für einzelne Produkte während der Herstellung),
                                                                            II. Ist das Produkthaftungsgesetz auf KI-Systeme an­­wend­
• Instruktionsfehler (unzureichende Gebrauchsanweisung                          bar (m. a. W. ist ein KI-System Produkt i. S. d. ProdHaftG)?
     oder fehlende Warnung vor Gefahren).
                                                                            Das Produkthaftungsrecht gilt für bewegliche Sachen. Ob
Die Haftung tritt nur ein, wenn das Produkt den schadens-                   KI-Systeme, die aus Computer-Algorithmen und damit aus
stiftenden Fehler bereits beim Inverkehrbringen aufweist.                   Software bestehen, bewegliche Sachen in diesem Sinne sind,
                                                                            ist in der Rechtswissenschaft mehr als umstritten9. Momen-
Produzentenhaftung: Die Produzentenhaftung greift ein                       tan wird Software noch nicht als Produkt im Sinne des
bei Verletzung eines von § 823 Abs. 1 BGB geschützten                       Produkthaftungsrechts klassifiziert. Insoweit scheidet eine
Rechtsguts durch ein industriell hergestelltes Produkt.                     Haftung des KI-Entwicklers als Hersteller nach dem Prod-
Zusätzlich muss ein Verschulden des Herstellers vorliegen.                  HaftG momentan schon aus diesem Grund aus.
Ein Verschulden trifft den Hersteller, wenn er eine Ver-
kehrssicherungspflicht verletzt. Als Verkehrssicherungs-                    Andererseits kommt die Produkthaftung nur zur Anwendung
pflichten anerkannt sind                                                    bei Verletzung von Körper, Gesundheit und Eigentum. Zur
                                                                            Begründung einer Haftung des KI-Programmierers nach
• Organisationspflichten (der Hersteller muss seinen                        ProdHaftG müsste die – unkörperliche – KI selbst auf diese
     Betrieb so organisieren, dass Fehler durch Kontrollen                  Rechtsgüter „in der realen Welt“ einwirken können.
     entdeckt und frühzeitig beseitigt werden können),
                                                                            Nachdem eine rein unkörperliche KI letztlich nur mittelbar
                                                                            durch „Werkzeuge“ eine Verletzung der genannten Rechts-
                                                                            güter in der realen Welt bewirken kann, z. B. im Rahmen

9     Vgl. u. a. hierzu das vorläufige Konzeptpapier der Europäischen Kommission zu künftigen Leitlinien zur Produkthaftungsrichtlinie („Preliminary
      Concept Paper for the future Guidance on the Product Liabilitiy Directive 85/374/EEC“ vom 18. September 2018) sowie die Stellungnahme
      des Deutschen Anwaltvereins durch den Ausschuss Informationsrecht vom November 2018.
HAFTUNG            17

des Internet of Things oder als „embedded“ Software, ist
somit der Hersteller des Produktes zunächst der Haftende.

Wenn ein Hersteller eigen- oder fremdprogrammierte KI
zur Steuerung oder Kontrolle von beweglichen Sachen nutzt,
die er in den Verkehr bringt, z. B. als Hersteller eines Roboters,
haftet er für Schäden durch den Roboter unabhängig davon,
ob der Hersteller die KI für den Roboter im eigenen Unter-
nehmen programmiert hat.

Wird ein Hersteller in Anspruch genommen, der fremd­
programmierte KI in seinen Produkten verwendet, kommt
gegebenenfalls ein (vertragsrechtlicher) Regressanspruch
gegen den KI-Programmierer in Betracht. Da schon heute
vielfach Open Source Software (OSS) verwandt wird, die
zum einen einem eigenen (haftungsausschließenden) Haf-
tungsregime folgt, das nicht auf deutschem Recht beruht,
zum anderen üblicherweise viele Entwickler an der Ent-
wicklung von OSS beteiligt sind und sich ein Verschuldens-
anteil Einzelner mithin nicht feststellen lassen wird, wird
ein solcher Regressanspruch aber in den meisten Fällen
faktisch ins Leere laufen.

Diese Lösung erscheint zumindest im Licht der Innovations-
geschwindigkeit von OSS nachvollziehbar und führt für
den Hersteller, da er bewusst OSS einsetzt, auch nicht zu
unbilligen Ergebnissen. § 3 Abs. 1 Nr. 2 ProdHaftG schützt
den Verkehr auch bei einem „billigerweise zu erwartenden“
Gebrauch.                                                            schnell fortschreitende Digitalisierung sollte die Gesetzge-
                                                                     bung gegebenenfalls darüber nachdenken, verpflichtende
Stammt die KI von einem anderen Unternehmen als dem                  Sicherungsmaßnahmen wie für kritische Infrastrukturen
Hersteller des körperlichen Produkts, durch das die KI „wirkt“       auch auf andere Bereiche auszudehnen und somit Verpflich-
und den Schaden verursacht, und war die Nutzung der Sache            tungen zu Sicherheitsupdates zum Beispiel durch die Betrei-
„durch KI“ aber bereits ohne weitere Sicherheitsvorkehrun-           ber oder aber die Hersteller der KI zu erlassen.
gen in der Sache angelegt (z. B. als Zusatzfeature oder da der
Programmierer der KI vom Hersteller des körperlichen                 Teilweise wird angeführt, der Hersteller eines Produktes
Produktes gerade hierfür beauftragt wurde), ist dieser Fall          könne sich zu leicht exkulpieren, wenn die Rechtsgutsver-
ebenfalls durch das Produkthaftungsrecht erfasst: Es stellt          letzung auf einer Entscheidung der KI beruht, die diese
sich für den Hersteller des körperlichen Produkts die Frage          erst aufgrund ihrer Lernfunktion nach Inverkehrbringen
des möglichen Gesamtschuldnerausgleichs mit dem Pro-                 erworben hat. § 1 Abs. 2 Nr. 2 ProdHaftG schließt nämlich
grammierer der KI (nach § 5 ProdHaftG), wofür es dann                die Haftung für Schäden aus, die auf Fehlern beruhen, die
wiederum auf die Frage ankäme, ob die KI als Software                erst nach Inverkehrbringen entstanden sind. Hiergegen lässt
Gegenstand des Produkthaftungsrechts ist.                            sich aber zutreffend argumentieren, dass der Fehler nicht
                                                                     das im Rahmen der Lernfunktion erworbene Wissen war,
Wurde ein körperliches Produkt von einer KI „gekapert“ und           sondern die von Anfang an fehlerhafte Programmierung,
war das auch nicht vorherzusehen (anders bei „vorherseh-             die eine solche Entscheidung der KI erst ermöglicht hat. Von
barem Missbrauch“), liegt schon kein Fehler des Produktes            anderer Seite wird eine teleologische Auslegung dieser Norm
vor. Wie in anderen Fällen einer unrechtmäßigen Handlung             dahingehend erwogen, dass Fehler, die auf der Lernfunktion
(z. B. bei Hacker-Angriffen) verbleibt eine Haftung nach all-        der KI beruhen, nicht unter die „Later defect defence“ fallen
gemeinen deliktsrechtlichen Regeln. Im Hinblick auf die              (so auch Preliminary Concept Paper, Rz. 59 ff.).
18        HAFTUNG

Da Fehler bei der Herstellung von KI nicht nur in der Pro-       zur Abwendung erkannter Gefahren bleibt der Hersteller
grammierung der Algorithmen (Konstruktion), sondern auch         weiterhin verpflichtet und für Schäden, die durch eine Ver-
in unzureichenden Lerndaten liegen können, wäre die bis-         letzung dieser Pflichten verursacht werden, weiterhin ver-
herige Interpretation des Fehlerbegriffes für KI zu überden-     antwortlich. Auch ist für den Hersteller beim Einsatz einer
ken. Auch gibt es derzeit kaum allgemein anerkannte Regeln       sich selbst weiterentwickelnden KI durchaus vorhersehbar,
und Best Practices, nach denen sich bestimmen lässt, ob          dass durch die KI unvorhergesehene Ergebnisse und Ent-
Algorithmen und Lerndatenbestände ausreichend und an­­           scheidungen getroffen werden können, die neue Gefahren
gemessen sind. Diese Schwierigkeiten für die Gesetzesaus-        und Risiken eröffnen.
legung und bei der Bestimmung einschlägiger technischer
Standards bestehen jedoch bei jeder neuen Technologie. Sie       Im Bereich selbststeuernder Fahrzeuge wird eine Lösung
sind also nicht spezifisch für KI und sind bisher durch Ent-     über die verkehrsrechtliche Gefährdungshaftung nach dem
wicklung der Rechtsprechung gelöst worden.                       StVG gefunden. Diese Lösungsmöglichkeit versagt jedoch
                                                                 schon, wenn über einen Einsatz von selbststeuernden Hub-
Schließlich bleibt die Frage offen, ob schon jedes Software­     und/oder Transportfahrzeugen in Produktions- und Logis-
update für KI ein neues Inverkehrbringen des mit der KI          tikbereichen nachgedacht wird, in welchen das StVG nicht
ausgestatteten Ursprungsproduktes darstellt, selbst wenn         gilt, mithin die Haftungslage unklar ist. Die verschuldens­
es nur eine Fehlerbehebung wäre. Dies würde zu einer Aus-        abhängige Produzentenhaftung kommt hier nicht zu sach-
weitung der Produkthaftung führen, die heute im Gesetz           gerechten Ergebnissen. Um keine Haftungslücken entstehen
nicht vorgesehen ist. Insoweit muss zukünftig eine trenn-        zu lassen, wird nunmehr häufiger gefordert, eine Parallele zur
scharfe Definition erfolgen, die zwischen zusätzlichen Funk­­    Gefährdungshaftung, wie sie beispielsweise für Tierhalter in
tionalitäten für die KI, die dann daraus ein neues Produkt       § 833 BGB vorgesehen ist, zu ziehen. Bei einer Gefährdungs­
machen würden, und reinen Fehlerbehebungen unterscheidet.        haftung soll immer derjenige, der zu seinem Nutzen recht-
Soweit diese Frage geklärt wird, kann mit den bisherigen         mäßig einen gefährlichen Betrieb eröffnet und unterhält,
Kriterien des Produkthaftungsrechtes eine rechtlich ein-         auch den Schaden tragen, der in der Verwirklichung des Risi-
wandfreie Lösung gefunden werden.                                kos bei anderen entsteht und von diesem nicht verhindert
                                                                 werden kann.

III. Haftet der Hersteller im Sinne der Produzenten­            Das oben skizzierte Beispiel zeigt durchaus Parallelen. Da
     haftung für die KI?                                         sich das System, in welchem die KI eingesetzt wird, selb-
                                                                 ständig weiterentwickelt und Entscheidungen trifft, stellt
Anders als bei der Produkthaftung kommt eine Verant-             der Einsatz dieser Systeme eine Risikoquelle dar, für die der
wortlichkeit des Herstellers nach den Grundsätzen der Pro-       Verwender aufgrund der bewussten Entscheidung, dieses
duzentenhaftung (§ 823 Abs. 1 BGB) nur in Betracht, wenn         System einzusetzen, auch haften sollte.
der Hersteller einen Schaden vorsätzlich oder fahrlässig
verursacht hat.                                                  Der Gesetzgeber sollte die weitere Entwicklung sensibel
                                                                 beobachten.
Dazu muss der Schaden einem Hersteller zugerechnet, d. h.
kausal auf eine Pflichtverletzung des Herstellers zurückge-
führt werden. KI ist jedoch geradezu darauf angelegt, Er­­geb­   IV. Sind die bisherigen Ergebnisse der AG4 vor diesem
nisse zu produzieren, die nicht in der konkret eintretenden          Hintergrund beim Einsatz von KI haltbar?
Form vorhersehbar sind. Es ist fraglich, ob dem Hersteller
ein Fahrlässigkeitsvorwurf für die Verursachung eines Scha-      Im Rahmen der Publikation „Wie das Recht Schritt hält“
dens zu machen ist, dessen Eintritt er nicht voraussehen und     aus dem Oktober 2016 befasste sich die AG 4 bereits erst-
daher auch nicht verhindern kann. Diese Überlegung kann          malig mit dem Produkthaftungsrecht im Industrie 4.0­-
jedoch den Produzenten nicht insgesamt von einer Haftung         Umfeld.
nach § 823 Abs. 1 BGB befreien. Denn die fehlende Voraus-
sehbarkeit eines Schadens kann den Hersteller höchstens von      Grundtenor war, dass die aktuelle Rechtslage keine Rege-
der Pflicht befreien, den Nutzer vorab auf solche Schadens-      lungslücken aufwies, die aus Sicht der Unterarbeitsgruppe
möglichkeiten hinzuweisen. Zur sorgfältigen Organisation         ein sofortiges Einschreiten des Gesetzgebers erfordert hätten.
des Programmierprozesses, zur Produktbeobachtung und             Das Produkthaftungsrecht einerseits und das allgemeine
Sie können auch lesen