LIZENZ ZUM TÖTEN Künstliche Intelligenz in den Waffen-systemen und neue Herausforderungen für die Rüstungskontrolle

Die Seite wird erstellt Merlin Fricke
 
WEITER LESEN
LIZENZ ZUM TÖTEN Künstliche Intelligenz in den Waffen-systemen und neue Herausforderungen für die Rüstungskontrolle
LIZENZ
ZUM TÖTEN
Künstliche Intelligenz in den Waffen-
systemen und neue Herausforderungen
für die Rüstungskontrolle
Dr. Gabriele Reitmeier

                         ANALYSE
Impressum
Herausgeber
Friedrich-Naumann-Stiftung für die Freiheit
Truman-Haus
Karl-Marx-Straße 2
14482 Potsdam-Babelsberg

 /freiheit.org
 /FriedrichNaumannStiftungFreiheit
 /FNFreiheit

Autorin
Dr. Gabriele Reitmeier, Themenmanagerin
Liberale Entwicklungspolitik & Vernetzte Sicherheit

Redaktion
Referat Globale Themen/Fachbereich Internationales
Friedrich-Naumann-Stiftung für die Freiheitt

Kontakt
Telefon +49 30 220126-34
Telefax +49 30 690881-02
E-Mail service@freiheit.org

Stand
Oktober 2020

Hinweis zur Nutzung dieser Publikation
Diese Publikation ist ein Informationsangebot der Friedrich-
Naumann-Stiftung für die Freiheit. Die Publikation ist kostenlos
erhältlich und nicht zum Verkauf bestimmt. Sie darf nicht von
Parteien oder von Wahlhelfern während eines Wahlkampfes
zum Zwecke der Wahlwerbung verwendet werden (Bundes-
tags-, Landtags- und Kommunalwahlen sowie Wahlen zum
Europäischen Parlament).

Lizenz
Creative Commons (CC BY-NC-ND 4.0)
Inhalt
1. KÜNSTLICHE INTELLIGENZ IN WAFFENSYSTEMEN                       5
		 Zusammenfassung                                                5
      Definition von LAWS                                         5
      Grade von Autonomie                                         5
      Aktueller Stand der Entwicklung von LAWS                    6
      Einsatzmöglichkeiten von LAWS im militärischen Bereich      6
		    Die Zukunft militärischer KI                                6
		    Pro und Contra militärischer KI                             6
		    Ethische und rechtliche Grundsatzfragen                     7
		    Künstliche Intelligenz in der Rüstungskontrolle             7

2. ENTWICKLUNG MILITÄRISCHER KI IN AUSGEWÄHLTEN STAATEN           8

  2.1 Europäische Union                                           8
		    Militärische KI in der Europäischen Kommission
		    und dem Europäischen Parlament                    8
		    Europäische Verteidigungsagentur und militärische KI        8
		    Europäischer Verteidigungsfonds und militärische KI         8

  2.2 EU-Mitgliedsstaaten                                         8
		 Frankreich                                                     9
		 Großbritannien                                                 9
		 Deutschland                                                    9

  2.3 USA                                                      10
      Entwicklung von KI in den USA                            10
		    KI im US- Militärsektor                                  10

  2.4 Volksrepublik China (VRC)                                11
		    Entwicklung von KI in der VRC                            11
		    KI im Militärsektor der VRC                              12

  2.5 Russische Föderation                                     12
		    Entwicklung von KI in der Russischen Föderation          12
		    KI im Militärsektor der Russischen Föderation            13
4   Lizenz zum Töten

3. DIE ETHISCHE VERANTWORTUNG VON UNTERNEHMEN —
   DAS BEISPIEL DER US-TECHNOLOGIEKONZERNE                                       13
		 Google                                                                        13
         Microsoft                                                               13
         Tesla                                                                   14
		       Das ambivalente Verhältnis des Pentagon zum Silicon Valley              14
         Unternehmens-Initiativen für einen verantwortungsvollen Umgang mit KI   14

4. VERHANDLUNGEN ZUR REGULIERUNG VON LAWS
   IM RAHMEN DER UN-WAFFENKONVENTION                                             15
         Positionen der EU, USA, Chinas und Russlands                            15
         Die neuen „Leitprinzipien für den Umgang mit LAWS“                      16
         Ausblick                                                                16

5. POLITISCHE FORDERUNGEN                                                        16
5

1. Künstliche Intelligenz in Waffensystemen
   Zusammenfassung
   Tödliche autonome Waffensysteme (lethal autonomous             prüfungskonferenz des VN-Waffenübereinkommens im
   weapon systems, LAWS) stehen für die dritte Revolu-            Dezember 2021 Empfehlungen für ein umfassendes
   tion in der Kriegsführung. Wie früher das Schießpulver         gemeinsames „Rahmenwerk“ d.h. die Grundlagen für ei-
   und später die Atombombe werden LAWS die Art der               nen internationalen Verbotsvertrag zu erarbeiten, drohen
   Kriegsführung radikal verändern und damit über die             die Verhandlungen endgültig zu scheitern.
   Machtverhältnisse der Welt von morgen entscheiden.
   Viele Staaten arbeiten bereits an der Entwicklung von          Die wichtigsten politischen Forderungen:
   voll-autonomen Waffen, allen voran die USA, China, Is-         B Tödliche voll-autonome Waffen (LAWS) müssen
   rael und Südkorea. Die EU-Mitgliedsstaaten vertreten sehr        global verboten werden.
   unterschiedliche Positionen bzgl. LAWS. Entsprechend
   unterschiedlich sind die nationalen Voraussetzungen und        B Das Prinzip der “meaningful human control” sollte als
   Fähigkeiten zur Entwicklung militärischer KI. In Deutsch-        universelle Norm bei Waffensystemen beibehalten/
   land ist das Thema militärische KI jenseits der Drohnen-         eingeführt werden.
   debatte noch nicht in den Fachkreisen und noch weniger         B Adäquate technologische Ansätze für die Rüstungs-
   in der Gesellschaft angekommen.                                  kontrolle und Verifikation von KI-gestützten Waffen-
                                                                    systemen sind zu entwickeln.
   Mit dem Einsatz von LAWS sind grundlegende ethische
   und rechtliche Fragestellungen verbunden, auf die die          B Europa braucht eine gemeinsame militärische KI-
   internationale Gemeinschaft bisher noch keine überein-           Strategie.
   stimmenden Antworten gefunden hat. Mit ihrem Einsatz           B Für die Entwicklung/Nutzung und Ausfuhr bewaffne-
   sind auch große Sicherheitsrisiken verbunden. Doch der
                                                                    ter und bewaffnungsfähiger Drohnen müssen euro-
   Weltgemeinschaft ist es bisher nicht gelungen, einen völ-
                                                                    päische/internationale Standards eingeführt werden.
   kerrechtlich verbindlichen Vertrag zur Regulierung bzw.
   für ein Verbot von LAWS zu verabschieden. Dazu fehlte          B Voll-autonome Drohnenschwärme sind als Massen-
   vor allem der politische Wille.                                  vernichtungswaffen einzustufen.
                                                                  B Das europäische KI-System muss wettbewerbsfähi-
   Immerhin konnten sich die 125 Vertragsstaaten der UN-
                                                                    ger werden.
   Waffenkonvention (CCW) im Herbst 2019 auf gemeinsame
   Leitprinzipien für den Umgang mit LAWS (Guiding Principles     B Es braucht einen globalen Dialog über ethische
   on Lethal Autonomous Weapons Systems) einigen. Gelingt           Standards bzgl. Entwicklung und Nutzung künstlicher
   es den CCW-Vertragsstaaten jedoch nicht, bis zur 6. Über-        Intelligenz

Definition von LAWS

Der Begriff LAWS steht für „Lethal autonomous weapon              Viele Systeme werden zunächst teil-autonom betrieben, d.h.
systems“, d.h. tödliche autonome Waffensysteme. Eine all-         mit einem menschlichen Akteur als letzter Instanz. Der Pro-
gemein akzeptierte Definition von LAWS gibt es bisher nicht.      zess der zunehmenden Autonomisierung vollzieht sich dann
Die internationale Fachwelt verwendet meist jene funktionale      Schritt für Schritt:1 In dem Maße wie einzelne Funktionen be-
Definition von „Autonomie in Waffensystemen“, die sich die        stehender Waffensysteme nach und nach autonom gestaltet
USA und das Internationale Komitee vom Roten Kreuz (IKRK)         werden, in dem Maße nimmt die Rolle des Menschen bei der
zu eigen gemacht haben: Danach sind Waffensysteme „voll-          Entscheidungsfindung über den Waffeneinsatz ab. Man unter-
autonom“, wenn sie nach ihrer Aktivierung den gesamten Pro-       scheidet drei Stufen:
zess der Zielbekämpfung (targeting cycle) ohne signifikante
menschliche Kontrolle durchlaufen. Dieser besteht aus fünf        B Menschen sind ‘in the loop’ (Entscheidungsschleife)
Schritten: find, fix, track, select, engage. Kurz gesagt: LAWS      wenn sie ein hohes Maß an Steuerung und Kontrolle
können selbständig ein Ziel wählen, angreifen und töten.            über die Systeme behalten (automatische Systeme).

Grade von Autonomie                                               B Menschen sind ‘on the loop’ wenn die Systeme zwar
                                                                    autonom agieren, der Mensch jedoch weiterhin den
Schon lange sind Waffen im Einsatz, z.B. Raketenabwehr-             Prozess überwacht und kontrolliert (halb-autonome
systeme, die in den ersten drei Phasen des „targeting cycle“        Systeme).
(d.h. find, fix, track) – autonom operieren können. Neu ist die
Erweiterung der Autonomie auf die Phasen „select“ und „en-        B Menschen sind ‘off the loop’ wenn die Systeme völlig
gage“ und deren Einsatz in allen Waffengattungen, nicht nur         autonom und ohne jegliches Eingreifen des Menschen
in der Verteidigung.                                                arbeiten (voll-autonome Systeme).
6   Lizenz zum Töten

Aktueller Stand der Entwicklung von LAWS                                          teme“, d.h. Systeme, die die Fähigkeit besitzen, aus früheren
                                                                                  Anwendungen zu lernen und sich an lokale Gegebenheiten
Experten schätzen, dass weltweit bereits über 30 Nationen                         und Umstände dynamisch anzupassen, denen sie zuvor noch
aktiv an der Entwicklung von voll-autonomen Waffen arbei-                         nicht ausgesetzt waren. Großes militärisches Interesse be-
ten2, darunter vor allem die USA, China, Israel, Südkorea,                        steht auch an der sog. Schwarmtechnologie, die als „game
Frankreich, Großbritannien und Russland. Rund 380 teil- oder                      changer“ gilt. Ein Schwarm ist eine Gruppe einzelner Systeme,
voll-autonome Waffensysteme existieren bereits oder sind in                       die interagieren und als Kollektiv mit einem gemeinsamen
Arbeit.3 Der weitaus überwiegende Teil der Waffensysteme                          Ziel arbeiten. Die Einheiten koordinieren sich selbst, ohne zen-
ist derzeit noch teil-autonom, d.h. ihre Handlungsautonomie                       trale Steuereinheit. Einzelne Defekte oder Abschüsse haben
ist noch beschränkt und ihre Steuerung unterliegt noch der                        also nur einen geringen Effekt auf die Leistungsfähigkeit des
menschlichen Kontrolle. Doch die Zahl der Funktionen, die                         Schwarms. Es kann sich dabei um Drohnen-, Roboter- oder
Waffensysteme automatisch oder auch autonom ausführen                             U-Boot-Schwärme handeln. Ihre Kontrolle durch den
können, nimmt kontinuierlich zu.                                                  Menschen gestaltet sich jedoch schwierig.4 Eine Reihe von
                                                                                  Ländern arbeitet bereits an experimentellen Vorstufen der
                                                                                  Tarnkappen-Kampfdrohnen. Sie erreichen lange Einsatz-
Einsatzmöglichkeiten von KI                                                       zeiten und hohe Geschwindigkeiten und bleiben vom Ra-
im militärischen Bereich                                                          dar unentdeckt. Das bekannteste Beispiel ist die britische
                                                                                  „Taranis“-Drohne. In ca. zehn Jahren werden diese Tarnkappen-
Der Einsatz künstlicher Intelligenz im militärischen Bereich                      Kampfdrohnen einsatzbereit sein.
hat hohes Potential – sowohl im defensiven wie im offensi-
ven Bereich. Im defensiven Bereich kommen KI-gestützte
Systeme v.a. bei der Aufklärung und Lagebeurteilung (Ein-                         Pro und Contra militärischer KI
schätzung gegnerischer Kräfte und schnelle Ausführung von
Vergeltungsschlägen), Logistik (autonome Fahrzeuge, Liefer-                       Befürworter betonen, dass durch die zunehmende Autonomie
drohnen), Abwehrsystemen (v.a. gegen Raketen, Marsch-                             in den Waffensystemen Geschwindigkeit, Reichweite, Präzision
flugkörper und Artilleriegranaten) sowie bei der Kampfmittel-                     sowie Schlagkraft von Operationen erheblich erhöht werden
beseitigung zum Einsatz. Im offensiven Bereich kommen KI-                         könnten. KI-gestützte Systeme erlaubten eine wesentlich
gestützte Systeme in LAWS zum Einsatz. d.h. in Kampfdroh-                         breitere und schnellere Erfassung der Bedrohungslage und
nen, Panzern, Kampfrobotern, Schiffen und U-Booten.                               des Geschehens auf dem Schlachtfeld. Sie ermöglichten es
                                                                                  gleichzeitig, schnellere und qualifiziertere Entscheidungen zu
Zu den Waffensysteme, die auf dem Weg zur Autonomie                               treffen, als ein Mensch. Auch seien sie schneller und besser
bereits weit fortgeschritten sind, zählen die Drohne HARPY                        in der Lage, die enormen Datenmengen zu verarbeiten, die
(Israel), die Kamikaze-Drohne KUB-BLA (Russland), der Kampf-                      moderne Armeen in bewaffneten Konflikten zu bewältigen hät-
panzer T-14 Armata (Russland), die Helikopter-Drohne Blow-                        ten. Zudem seien sie nicht anfällig für Müdigkeit oder Stress.
fish A3 (China), das Drohnenkampfschiff JARI (China), der                         Letztendlich könne dadurch das Leben der eigenen Soldaten
SGR-A1 Kampfroboter (Südkorea), der Sea Hunter (USA) so-                          geschützt und die Zahl ziviler Opfer verringert werden.
wie die Tarnkappen-Kampfdrohnen Taranis (GB) und nEUROn
(Frankeich)                                                                       Die Gegner von militärischer KI verweisen auf die vielen Ge-
                                                                                  fahren, die mit ihrem Einsatz verbunden sind:5
Abb. 1 | HARPY-Drohne – gilt in Expertenkreisen als voll-autonom.
                                                                                  B Gefahr der bewussten/unbewussten Manipulation
                                                                                    und des Hacking
                                                                                    KI-Systeme sind sehr abhängig von der Exaktheit der
                                                                                    eingegebenen Daten. Sie sind anfällig für bewusste und
                                                                                    unbewusste Voreingenommenheit (bias). Algorithmen
                                                                                    spiegeln die moralischen Vorurteile und Stereotype ihrer
                                                                                    Programmierer wider und kommen immer wieder zu bi-
                                                                                    zarren Fehleinschätzungen. Zudem besteht die Gefahr
                                                                                    des Hacking oder der Manipulation per Schadsoftware.

                  Quelle: https://creativecommons.org/licenses/by/4.0/legalcode   B Neue Dimension globaler Destabilisierung
                                                                                    Durch autonome Systeme kann die Hemmschwelle, einen
                                                                                    Krieg zu führen, deutlich sinken, denn dank dem Einsatz
Die Zukunft militärischer KI                                                        von LAWS kann der Verlust an Menschenleben und Ausrüs-
                                                                                    tung stark reduziert werden. Gleichzeitig beschleunigen
Bisher sind die meisten KI-gestützten Waffensysteme nur                             autonome Systeme das Tempo von Kriegshandlungen in
sehr begrenzt einsetzbar. Sie können nur genau umrissene                            einem Maße, dass es die menschliche Reaktionsfähigkeit
Aufgaben erfüllen und sich noch nicht an sich verändernde                           übersteigt. Damit besteht die Gefahr der automatischen
Situationen anpassen. Aber genau das ist im realen Kampf-                           Konflikteskalation („flash wars“), erhöhter Opferzahlen so-
geschehen notwendig. Dazu braucht es sog. „lernende Sys-                            wie einer neuen Dimension globaler Destabilisierung. Eine
7

   besondere Gefahr geht von künstlicher Intelligenz in nuk-     Rechtliche Frage: Sind LAWS mit dem humanitären Völker-
   learen Systemen aus. Mit einer künstlichen Intelligenz als    recht vereinbar?
   Kontrollinstanz nuklearer Abwehrsysteme potenziert sich
   das Risiko eines Einsatzes von Atomwaffen.6                   Im Rahmen eines bewaffneten Konfliktes gilt stets, d.h. unab-
                                                                 hängig von den eingesetzten Waffensystemen, das humani-
B Gefahr der Proliferation                                       täre Völkerrecht. Dieses hat sich jedoch im Lichte konventio-
  Es besteht auch eine hohe Gefahr der Proliferation. Der-       neller Waffensysteme entwickelt, die nicht autonom handeln.
  zeit sind nur wenige reiche Länder in der Lage, LAWS zu        Folglich richtet es sich an Menschen und nicht an Maschinen.
  erforschen und zu entwickeln. Aber die Produktion wird
  günstiger, u.a. wegen des 3D-Drucks, und es braucht,           B Contra:11 LAWS sind mit dem humanitären Völkerrecht
  anders als bei Atomwaffen, für ihre Herstellung keine be-        unvereinbar, denn autonome Systeme sind nicht in der
  sonderen Rohstoffe. Zudem ist der Export von (teil-)auto-        Lage, in dynamischen Kampfsituationen zwischen Kom-
  nomen Waffen schon längst ein blühender Markt. Auch              battanten und Zivilisten oder zwischen militärischen und
  autoritäre Führer und nicht-staatliche Akteure wie Terror-       zivilen Objekten zu unterscheiden. Auch die Verhältnismä-
  gruppen, Warlords und Kriminelle sind in der Lage, LAWS          ßigkeit eines Angriffs einzuschätzen, sei   unmöglich für
  zu beschaffen. Houthi Rebellen, ISIS und Boko Haram set-         eine Maschine. Zudem sei bei LAWS, die den Schießbefehl
  zen bereits Kampfdrohnen ein. Experten schätzen, dass            autonom erteilen, die zentrale Rolle des Menschen beim
  mindestens 102 Länder Programme für militärische Dro-            Waffeneinsatz und dessen Verantwortlichkeit nicht mehr
  hen haben.7 Je mehr Akteure jedoch über LAWS verfügen,           gegeben. Dadurch besteht eine „Verantwortungslücke“,
  umso schwieriger wird ihre internationale Kontrolle.             d. h. es ist nicht mehr klar, wer zur Verantwortung gezogen
                                                                   werden kann, wenn die Maschine falsch entscheidet. Ist
B Übereilter Einsatz unsicherer Systeme                            es die Nation, der Kommandant, der Operator, der Herstel-
  Die wirkliche Gefahr des „KI-Wettrüstens“ besteht nicht          ler, der Programmierer – oder das Waffensystem selbst?
  darin, dass ein Land in der KI-Entwicklung hinter seinen
  Konkurrenten zurückfällt, sondern dass die Perzeption          B Pro: Künftig wird es möglich sein, LAWS so zu program-
  eines Wettrennens alle Länder dazu veranlasst, übereilt          mieren, dass sie die Grundprinzipien des humanitären
  unsichere KI-Systeme einzusetzen und damit sich selbst           Völkerrechts einhalten können. Mit LAWS kann die Kriegs-
  und alle anderen zu gefährden.8                                  führung sogar humaner werden, da Menschen an der
                                                                   Front nicht mehr gebraucht werden. Außerdem ist auch
                                                                   in Kriegen, die von Menschen geführt wurden, das huma-
Ethische und rechtliche Grundsatzfragen                            nitäre Völkerrecht immer wieder massiv verletzt worden.12

Beim Einsatz von LAWS stellen sich grundlegende ethische         B Alternativer Ansatz: LAWS können weder als Waffen
und rechtliche Fragen, auf die die internationale Gemein-          noch als klassische Kombattanten behandelt werden.
schaft bisher noch keine übereinstimmenden Antworten               Deshalb greift das bestehende humanitäre Völkerrecht
gefunden hat:                                                      nicht und es muss ein neues Recht geschaffen werden.
                                                                   Geeignet wäre eine neue Konvention, unter der „irreguläre
Ethische Frage: Darf die Entscheidung über Leben und Tod           Kämpfer“ wie autonome Waffensysteme rechtlich regu-
eines Menschen einer Maschine überlassen werden?                   liert würden 13

B Argumentation der Gegner: Es verletzt die Würde des
  Menschen, Entscheidungen über Leben und Tod auf dem            Künstliche Intelligenz in der Rüstungskontrolle14
  Schlachtfeld an Algorithmen zu delegieren. Das Töten im
  Krieg auf Maschinen auszulagern und automatisch „ab-           Künstliche Intelligenz ist zu einem wichtigen Thema in der
  arbeiten“ zu lassen, mache Menschen zu Objekten. Für           Rüstungskontrolle geworden, und zwar in doppelter Hinsicht.
  die Getöteten mag es keinen Unterschied machen, ob             Als Gegenstand der Rüstungskontrolle entzieht sich KI den
  ein Mensch oder ein Algorithmus ihren Tod bewirkt hat.         bisherigen, traditionellen Ansatzpunkten, da sie weder phy-
  Aber die Gesellschaft, die eine solche Praxis erlaubt und      sische Eigenschaften oder Fähigkeiten noch transparente
  mit dem Töten im Krieg ihr kollektives menschliches Ge-        Funktionsweisen besitzt, auf denen aktuelle Methoden und
  wissen nicht mehr belastet, riskiert nicht weniger als die     Verfahren zur quantitativen wie qualitativen Beschränkung
  Aufgabe der grundlegendsten zivilisatorischen Werte und        in der Rüstung basieren. Auf der anderen Seite gibt KI der
  humanitären Prinzipien.9 Dies ist eine rote Linie, die die     Rüstungskontrolle aber auch neue Werkzeuge an die Hand.
  Menschheit niemals überschreiten sollte.                       So ist es denkbar, dass die Verifikation bestehender und
                                                                 neuer Rüstungskontrollverträge, also die Überprüfung ihrer
B Argumentation der Befürworter: Auch der Mensch ist in          Einhaltung, in erheblichem Maß von KI als technischem Hilfs-
  Kriegssituationen nicht unfehlbar, v. a. wenn er von starken   mittel profitieren könnte, etwa durch eine höhere Präzision
  Emotionen wie Zorn oder Angst geleitet wird. Durch LAWS        und Geschwindigkeit bei der Sammlung, Verarbeitung und
  kann die Kriegsführung präziser geführt und somit die          Analyse von Daten.
  Zivilbevölkerung besser geschützt werden.10
8   Lizenz zum Töten

2. Entwicklung von LAWS
   in ausgewählten Staaten
2.1 Europäische Union                                            Gleichzeitig hat die Europäische Verteidigungsagentur (EVA),
                                                                 der EU-Hub für Verteidigungsinnovationen, ihre Aktivitäten
Die EU hat durchaus das Potential, zu einem globalen Führer      im Bereich KI erheblich erweitert. Bereits in den Jahren 2017-
im Bereich der künstlichen Intelligenz und ihrer Anwendung       2019 hatte sie im Rahmen des PADR-Projektes (Preparatory
im Verteidigungssektor zu werden: Das europäische KI-Eco-        Action on Defence Research) mit der Entwicklung autonomer
System ist insgesamt gut entwickelt, mit ex-EU-Mitglied          Systeme begonnen. Weitere sind in Vorbereitung.22 Künftig
Großbritannien klar an der Spitze gefolgt von Deutschland,       wird die EVA auch die Zusammenarbeit der EU-Mitglieds-
Frankreich und Spanien. Die EU verfügt über das größte An-       staaten zu militärischer KI bündeln.23 Der dafür entwickelte KI-
gebot an Software-Entwicklern, darunter auch die Top-KI-Ex-      Aktionsplan wird Ende 2020 vorgestellt.
perten.15 Mit 425.000 KI-Publikationen liegt die EU weltweit
an der Spitze, mit 233.000 Patent-Anmeldungen im Bereich         Militärische KI ist auch im neuen Europäischen Verteidigungs-
KI nimmt sie Platz zwei ein.16 Das EU-Verteidigungsbudget        fonds (EVF) berücksichtigt. Dieser ist mit ca. 7 Mrd. € ausge-
in Höhe von $ 281 Mrd. ist das zweitgrößte weltweit. Mit         stattet und wird grenzüberschreitende Rüstungsprojekte und
Airbus Defence & Space GmbH (Eurodrohne), Future Combat          militärische Forschung fördern. Zwischen 4-8 Prozent seines
Air Systems (FCAS), BAE Systems, ATOS, THALES etc. befin-        Budgets werden in „disruptive Technologien und hochriskante
den sich einige der größten Rüstungsunternehmen weltweit         Innovationen“ investiert. Dabei handelt es sich um Techno-
innerhalb der EU.                                                logien wie KI, von denen man sich radikale Veränderung von
                                                                 Theorie und Praxis der Kriegsführung verspricht. U. a. wird
Allerdings besteht auch die Gefahr, dass dieses Potential ver-   die Entwicklung der Eurodrohne und das Future Combat Air
spielt wird: Das europäische KI-Eco-System ist nach wie vor      System (FCAS), das größte Rüstungsprojekt Europas, aus
stark fragmentiert, d.h. die Voraussetzungen für die KI-Ent-     EVF-Mitteln finanziert. Ziel ist es, die gemeinsame Rüstungs-
wicklung in den EU-Mitgliedsstaaten variieren erheblich und      forschung und -entwicklung zu fördern, um so Effizienz sowie
ihre nationalen KI-Strategien sind noch nicht harmonisiert.      Wettbewerbs- und Innovationsfähigkeit des europäischen
Die europäischen Investitionen in künstliche Intelligenz lie-    Verteidigungssektors zu stärken. Dies ist auch dringend not-
gen weit hinter jenen der USA und Chinas. Das europäische        wendig, denn bisher leistet sich die EU ein teures System
Datenschutzregime ist im Vergleich zu den USA und China          nationaler Alleingänge mit über 170 verschiedenen Waffen-
extrem restriktiv. Mit dem Weißbuch zur künstlichen Intelli-     systemen, d.h. mehr als sechsmal so viele wie in den USA.
genz vom Febr. 2020 hat die Europäische Kommission erst-
mals einen Vorschlag zur Regulierung von KI in einer Region      Die ursprüngliche Fassung des EVF sah im Art 11, Abs 6 ein Ver-
vorgestellt. Wirtschaftsvertreter warnen bereits vor einer       bot der Förderung von LAWS vor. Diesen Passus hatte das Euro-
Überregulierung der neuen Technologie17. Andere Experten         päische Parlament eingebracht, wurde dann aber auf Druck
bewerten das Weißbuch als „zu vage, zu früh, zu unverbind-       des Europäischen Rates wieder gestrichen. Die Endfassung
lich, zu unrealistisch.“18                                       enthält dann nur noch einen Verweis darauf, „dass die geför-
                                                                 derten Projekte keinesfalls zu Waffensystemen führen dürften,
Das Thema KI im militärischen Sektor steht in den EU-            die geltendes Völkerrecht verletzen.“ 24 Dazu zählen Landminen
Institutionen erst seit kurzem auf der Agenda. Das Europäi-      sowie atomare, chemische und biologische Waffen.
sche Parlament (EP) verabschiedete im September 2018
eine Resolution, in der ein rechtlich verbindliches Verbot von
LAWS gefordert wird.19 Die Europäische Kommission wid-           2.2 EU-Mitgliedsstaaten
mete sich erst während der finnischen Ratspräsidentschaft
(Juli – Dezember 2019) verstärkt diesem Thema. Mit einem         Die EU-Mitgliedsstaaten vertreten im Hinblick auf die Erfor-
gemeinsamen Reflektionspapier über Digitalisierung und           schung, Entwicklung und den Einsatz von LAWS sehr unter-
KI in der Verteidigung versuchten mehrere EU-Staaten die         schiedlichen Positionen. Während Frankeich, Großbritannien,
Diskussion in Gang bringen.20                                    Deutschland, Schweden und Italien bereits an (teil-)auto-
                                                                 nomen Systemen arbeiten, sind einige Mitgliedsstaaten
In den offiziellen EU-Dokumenten zu künstlicher Intelligenz –    noch unentschieden. Irland und Österreich haben sich dem
wie dem EU-Weißbuch vom Februar 2020, den Ethik-Leitlinien       Lager der 30 Staaten angeschlossen, die ein präventives Ver-
für vertrauenswürdige KI (April 2019) oder der KI-Strategie      bot von LAWS fordern. Auch die neue finnische Regierung
(Dezember 2018)21 wird die militärische KI nicht thematisiert.   schloss sich dieser Forderung an. Belgien hat als einziges EU-
Erst in der neuen EU-Industriestrategie, die im März 2020        Land LAWS bereits verboten.25 Diese sehr unterschiedlichen
veröffentlicht wurde, werden Synergien zwischen zivilen und      Positionen und Ausgangssituationen in der militärischen KI-
militärischen Technologien untersucht.                           Entwicklung stellen eine große Herausforderung im Hinblick
                                                                 auf die Interoperabilität der Streitkräfte der EU-Mitglieds-
                                                                 staaten wie auch mit den NATO-Partnern dar.
9

Frankreich veröffentlichte als erstes und einziges EU-Land                  hat sich bisher auf internationaler Ebene im Rahmen der
im September 2019 eine militärische KI-Strategie (L’intel-                  CCW-Verhandlungen nicht für ein Verbot von LAWS ausge-
ligence artificielle au service de la défense). Sie wurde von               sprochen.
einem Expertenteam um den KI-Star Cédric Villlani im Ver-
teidigungsministerium verfasst und gilt als best-practice-                  In der KI-Strategie der Bundesregierung vom November
Beispiel. Das Land sieht in der künstlichen Intelligenz ein                 2018 27 kommen Fragen der militärischen Verwendung von
wichtiges Instrument seiner Geopolitik und wendet erheb-                    KI nur am Rande vor. Die Strategie konzentriert sich in erster
liche Mittel für die Integration von KI in seine Waffen-                    Linie auf Forschung, Wirtschaft und Gesellschaft. Außen-
systeme auf. Große Rüstungskonzerne wie Thales, Safran,                     politische und verteidigungspolitische Aspekte der KI fehlen.
Nexter und DCNS sind dabei in führender Position. Das fran-                 Anders als in Frankreich sieht die deutsche Bundesregierung
zösische nEUROn-System, eine Tarnkappen-Kampfdrohne,                        KI offensichtlich nicht als Instrument geopolitischer Macht,
zählt derzeit zu den in Entwicklung befindlichen Waffensys-                 das für den deutschen Einfluss in der Welt wichtig wäre.
teme mit dem höchsten Autonomie-Grad.26
                                                                            Das Bundesverteidigungsministerium (BMV) hat bisher –
Auch das ex-EU Mitglied Großbritannien arbeitet seit Jahren                 zumindest offiziell – keine militärische KI-Strategie vorgelegt
intensiv an der Entwicklung von LAWS. Bekanntestes Produkt                  und sich damit bisher nicht klar zu positioniert. Im Vorder-
ist die Überschall-Tarnkappen-Kampfdrohne Taranis, die ab                   grund steht seit Jahren die Forderung der Bundeswehr nach
2030 einsatzfähig sein soll. Folglich spricht sich das Land                 einer Bewaffnung von Drohnen für Auslandseinsätze. Ab
klar gegen ein präventives Verbot von autonomen Waffen                      2021 soll die neue bewaffnungsfähige Drohne „Heron TP“ in
aus. Gleichzeitig beteuert die britische Regierung, keine voll-             Afghanistan und ab 2024 in Mali stationiert werden. Hierbei
ständig autonomen Waffen entwickeln zu wollen und sieht                     handelt es sich (bisher) um eine von Menschen ferngesteu-
die britischen Gesetzeslage vor, dass die Kontrolle über einen              erte Drohne, sie könnte aber mittel- bis langfristig zu einem
Angriff bei einem Menschen liegen muss. Das Land hat                        autonomen System ausgebaut werden. Ob die neue Drohne
weder eine übergreifende nationale noch eine militärische KI-               dann tatsächlich mit Waffen bestückt sein wird, muss der
Strategie veröffentlicht.                                                   Bundestag für jedes Mandat einzeln entscheiden. Dies kann –
                                                                            laut Koalitionsvertrag – erst nach „ausführlicher völkerrecht-
In Deutschland sind LAWS ein problematisches Thema, da es                   licher, verfassungsrechtlicher und ethischer Würdigung“ er-
sehr unterschiedliche, z. T. widersprüchliche Interessen in der             folgen. Diese Debatte hat das BMV mit einer mehrwöchigen
Debatte gibt: Viele deutsche Entscheidungsträger sehen das                  Veranstaltungsreihe – der sog. #DrohnenDebatte202028 – im
Land nach wie vor als „zivile Macht“, d. h. ein Land das alles              Mai 2020 geführt. In seinem Abschlussbericht an den Bun-
Militärische ablehnt und internationale Konflikte v. a. mit diplo-          destag29 zieht das BMV Bilanz und setzt sich eindringlich für
matischen und nicht militärischen Mitteln löst. Folgerichtig                die Bewaffnung der Bundeswehr-Drohnen ein. Zugleich leg-
hat sich die Bundesregierung in ihren Koalitionsverträgen von               te das BMV mit dem Bericht erstmals Grundsätze für den
2013 und 2018 dazu verpflichtet, sich für eine Ächtung auto-                Einsatz von deutschen bewaffneten Unmanned Aircraft
nomer Waffensysteme einzusetzen. Doch bis heute wurde                       Systems (UAS) vor, die als Grundlage für die parlamentari-
diese Ankündigung nicht realisiert, d. h. die Bundesregierung               sche Befassung dienen sollen.

Abbildung | Länder, die bewaffnete Drohnen einsetzen                                                                     Russland, Frankreich

                                                                                        Nigeria, Iran, Türkei,
                                                                                        Aserbaidschan, Irak

                                                   Großbritannien                       Pakistan
                              Israel
                                                                                                                        VAE
               USA

        2000         2002       2004        2006        2008         2010        2012           2014            2016            2018           2020

                                                                                 Quelle: https://www.newamerica.org/international-security/reports/world-drones/
10 Lizenz zum Töten

Abbildung | Länder mit bewaffneten UAVs: Entwicklung über Zeit
                                                                                                                                               39
40                                                                                                                                      37
                  Besitz*                                                                                                       32
                  Einsatz
30
                                                                                                                        28
                                                                                                                26

20
                                                                                                     15
                                                                                                                                        12
                                                                                                                                10
                                                                                                                 9
                                                                                          8
10
                                                                           5      6
                                                                   4                                      4
                                        2              3
                  1

0
          2000         2002            2004   2006    2008        2010          2012            2014           2016            2018            2020

*Besitz bzw. Beschaffung beschlossen                                           Quelle: https://www.newamerica.org/international-security/reports/world-drones/

Auch der Deutsche Bundestag Bundestag hat sich bisher                    bleibt abzuwarten. Trump fordert darin die Bundesbehörden
nicht klar zu militärischer KI positioniert. Die Anträge von             auf, die Erforschung und Entwicklung künstlicher Intelligenz
Bündnis90/Die Grünen und DIE LINKE auf eine Ächtung von                  prioritär zu fördern. Kritiker sehen darin reine Symbolpolitik.
LAWS wurden sowohl von den Regierungsparteien CDU/CSU                    Nicht nur komme die Initiative sehr spät – zwei Jahre nach
und SPD als auch den Oppositionsparteien FDP und AfD ab-                 China – sie bleibe auch sehr vage, ohne Zukunftsvision, ohne
gelehnt. Dazu lag eine Beschlussempfehlung des Auswärtigen               konkreten Ziele und Finanzierungszusagen.34 Den Anspruch
Ausschusses vom 29.11.2019 vor. Dies stand im krassen Ge-                einer nationalen Strategie zur Sicherung der KI-Technologie-
gensatz zu der Empfehlung der Projektgruppe „KI und Staat“               führerschaft sehen sie damit nicht erfüllt.
innerhalb der Enquete Kommission des Bundestages für KI,
die dazu aufgefordert hatte, LAWs international zu ächten.               Mehr darf man von der 2018 vom Kongress eingesetzten
                                                                         15-köpfigen Nationalen Sicherheitskommission zur künstli-
Selbst innerhalb der deutschen Wirtschaft regt sich stellen-             chen Intelligenz (National Security Commission on Artificial
weise erhebliche Kritik an LAWS. So fordert der Bundesver-               Intelligence, NSCAI) erwarten. Sie berät Kongress und Regie-
band der deutschen Industrie (BDI), der auch die deutsche                rung in Sachen KI und veröffentlicht in regelmäßigen Ab-
Rüstungsindustrie unter seinem Dach vereint, einen verbind-              ständen Zwischenberichte mit umfangreichen Empfehlungen,
lichen Vertrag zur Ächtung autonomer Waffen.30 Dagegen                   wie jüngst die Second Quarter Recommendations.35 Ihren
schaffen einige Rüstungskonzerne Fakten: Rheinmetall baut                Abschlussbericht wird sie dem Kongress im März 2021 vor-
einen bewaffneten Drohnenpanzer31 – Mission Master – der                 legen.
kurz vor der Serienproduktion steht.
                                                                         Um sich gezielt von autoritären Regierungen abzusetzen,
                                                                         erließ das Weiße Haus im Januar 2020 zehn Prinzipien
2.3 USA                                                                  zur Regulierung von KI. Diese sollten „die wirtschaftliche
                                                                         und nationale Sicherheit, die Privatsphäre, die bürgerlichen
Im Bereich der künstlichen Intelligenz gelten die USA derzeit            Freiheiten und andere amerikanische Werte, einschließ-
weltweit (noch) als führende Nation. Dafür zeichnet neben                lich der Grundsätze der Freiheit und der Menschenrechte,
gigantischen Investitionen und Heerscharen von Top-Talenten,             Rechtsstaatlichkeit und Achtung des geistigen Eigentums
vor allem der weltweit größte und fortschrittlichste Technolo-           schützen“.  Im Kern geht es dabei um die Entwicklung einer
giesektor verantwortlich, angeführt von Konzernen wie Google,            „vertrauenswürdiger KI“. Die „Ethik-Leitlinien für vertrauens-
Amazon, Apple, Facebook, Microsoft. Der „Global KI-Index                 würdige KI“ der Europäischen Union vom April 2019 dürften
2019“32 bestätigt die Führungsposition der USA sogar mit                 dabei als Modell gedient haben.
einem deutlichen Vorsprung vor China. Doch der Index prog-
nostiziert auch, dass China die USA bei künstlicher Intelligenz          KI im US-Militärsektor
in nur fünf bis zehn Jahren überholen wird. Vor allem die im
Vergleich zu China zu geringen öffentlichen Investitionen so-            Die Technologieführerschaft ermöglichte den Vereinigten
wie ungünstige strukturelle Faktoren wie Datenschutzregeln               Staaten auch den Aufstieg zur militärischen Supermacht.
und sonstige Regulierungen seien dafür verantwortlich.                   Das Land nahm lange unangefochten eine globale Führungs-
                                                                         rolle bei der Erforschung und Entwicklung von Waffensyste-
Ob die von Präsident Trump im Februar 2019 gestartete                    men ein. Ein gigantisches nationales Verteidigungsbudget
„Amerikanische KI-Initiative“33 daran etwas ändern kann,                 von US-$ 732 Mrd. bildet die finanzielle Basis dafür.38
11

Abbildung | Verteidigungsausgaben: Top 15 im Jahr 2019†
Angaben in US$bn                                                                                                                                                                      700

               1. USA                            2. China
                                                                                                                                                                                      600
                                                                        3. Saudi Arabien               4. Russland*                    5. Indien

                                               181.1                         78.4                          61.6                         60.5
                                                                                                                                                                                      500

        684.6                                     6. GB            7. Frankreich           8. Japan         9. Deutschland 10. Südkorea
                                                                                                                                                                                      400

                                                                                                                                                                                      300

                                                  54.8                  52.3                  48.6                 48.5                  39.8
                                                                                                                                                                                      200

* Total defence expenditure, including        11. Brasilien          12. Italien        13. Australien          14. Israel             15. Irak
  National Guard, Federal Border Service                                                                                                                                              100
  and military pensions; Includes US
                                                   27.5                  27.1                 25.5                  22.6                  20.5
  Foreign Military Assistance
                                                                                                                                                                                      0
Note: US dollar totals are calculated using average market exchange rates for 2019, derived using IMF data. The relative position of countries will vary   USA    andere     Rest
not only as a result of actual adjustments in defence-spending levels, but also due to exchange-rate fluctuations between domestic currencies and the             Top 15     der
US dollar. The use of average exchange rates reduces these fluctuations, but the effect of such movements can be significant in a number of cases.                Länder     Welt
†
    At current prices and exchange rates                                                                Quelle: https://www.iiss.org/blogs/military-balance/2020/02/global-defence-spending

KI-Militärstrategien                                                                                  also – zumindest offiziell – nicht die völlige Autonomie in
                                                                                                      den Waffensystemen. Damit reagierte das Pentagon auch
Bereits im November 2012 hatte das Pentagon mit der Direc-                                            auf Proteste aus dem Privatsektor und den Druck der Öffent-
tive 3000.09“39 seine erste offizielle Direktive zum Thema                                            lichkeit. Die echte Herausforderung wird jedoch in der Um-
Autonomie in Waffensystemen veröffentlicht. Sie war auch                                              setzung dieser Prinzipien bestehen. Und fraglich ist, ob diese
weltweit die erste öffentliche Stellungnahme zu LAWS. In                                              Prinzipien auch dann noch aufrechterhalten werden, wenn
dieser Direktive sprach sich das Pentagon klar gegen den                                              andere Staaten voll-autonome Waffen einsetzen.
Einsatz voll-autonomer Waffensysteme im Militär aus und
fordert, dass ein Mensch immer „in the Loop“ sein müsse.
                                                                                                      2.4 Volksrepublik CHINA
Auch die Obama-Administration definierte KI als Schlüssel-
technologie zur Sicherung der militärischen Überlegenheit.                                            Als im Mai 2017 das von DeepMind entwickelte Computer-
Ihr National Artificial Intelligence Research and Develop-                                            programm AlphaGo beim asiatischen Strategiespiel Go zum
ment Strategic Plan wurde jedoch von der Trump-Regierung                                              dritten Mal gegen den Weltranglisten-Ersten KeJie aus China
sofort einkassiert und 2018 durch eine neue KI-Militärstrategie:                                      gewann, war dies der Sputnik-Schock für die chinesische
„Harnessing AI to Advance Our Security and Prosperity“40                                              Staatsführung. In Windeseile wurden die führenden KI-
ersetzt. Oberstes Ziel dieser neuen Strategie ist es, die militä-                                     Experten zusammengetrommelt und ein staatlicher KI-
rische und technologische Vormachtstellung der USA gegen-                                             Entwicklungsplan (New Generation Artificial Intelligence
über seinen strategischen Wettbewerbern sicherzustellen.                                              Development Plan)42 erarbeitet. Der Staatsrat der VR China
Das Pentagon kündigt darin an, künstliche Intelligenz künftig                                         verabschiedete diesen im Juli 2017. Im KI-Entwicklungsplan
in allen Bereichen des Militärs einsetzen zu wollen, etwa in                                          setzt die Regierung bis 2030 zwei Ziele: a) Aufbau einer KI-
Nachrichtendiensten und Überwachungsoperationen oder                                                  Industrie mit einem Jahresumsatz von 150 Mrd. US-$ und
zur Vorhersage von Wartungsproblemen bei Flugzeugen und                                               b) Etablierung Chinas als global führende KI-Macht. Der Ent-
Schiffen. Dafür kündiget es massive Investitionen im AI                                               wicklungsplan ruft auch dazu auf, den Einsatz von künstlicher
Bereich an.                                                                                           Intelligenz im Militärsektor zu verstärken. KI gilt als Allheil-
                                                                                                      mittel um sowohl die Wirtschaft zukunftsfähiger als auch die
Das Pentagon fordert darin ethische KI-Prinzipien für den                                             autoritäre Herrschaft effizienter zu machen.
Militäreinsatz auf nationaler und internationaler Ebene. Diese
wurden in den Folgemonaten vom sog. „Defense Innovation                                               Das bestehende KI-Ökosystem bietet gute Voraussetzungen,
Board“ erarbeitet, einem erlauchten Kreis namhafter Vertreter                                         um die für 2030 gesteckten Ziele zu erreichen: Der chinesi-
aus Wirtschaft (Google, Microsoft, Facebook) und Forschung                                            sche Staat tätigt riesige Investitionen sowohl in in- wie aus-
(California & Massachusetts Institute of Technologie, Carnegie                                        ländische KI-Unternehmen. Er setzt bei der KI-Entwicklung
Mellon und andere Universitäten) unter dem Vorsitz von                                                stark auf die (Privat-)wirtschaft und dabei vor allem auf die
Eric Schmidt, ex-CEO von Google. Im Februar 2020 wurden                                               sog. BAT-Unternehmen, denen er jeweils spezifische Sektoren
die fünf KI-Prinzipien der Öffentlichkeit vorgestellt: „being                                         zugewiesen hat: Baidu (autonomes Fahren), Alibaba (Smart
responsible, equitable, traceable, reliable, and governable“,                                         Cities), Tencent (Gesundheitssektor) sowie iFlytek (Sprach-
d. h. der Mensch soll für Entwicklung, Verbreitung, Einsatz und                                       erkennung). Das derzeit wertvollste KI-Startup der Welt ist
Ergebnisse der KI verantwortlich bleiben. Ferner sollen alle                                          chinesisch: Sensetime, ein Hersteller von Gesichtserken-
KI-Systeme steuerbar bleiben.41 Das Ziel des Pentagons ist                                            nungstechnologie. China verfügt zudem über den weltweit
12 Lizenz zum Töten

größten Datenpool – geriert von staatlichen Überwachungs-          umfassende Modernisierung der chinesischen Befreiungs-
systemen und rund 870 Millionen Internetnutzern. Gleich-           armee vorgestellt. Ferner wird aufgezeigt, wie die chinesische
zeitig ist die Gesetzgebung bzgl. Datenschutz im Land relativ      Armee, Luftwaffe und Marine künstliche Intelligenz in ihre
lax und ermöglichte Chinas Erfolge in KI und Data Mining. So       Waffensysteme, Befehlsnetzwerke und Kommunikation inte-
ist die Zahl chinesischer Veröffentlichungen und Patentan-         grieren will.47 Ziel ist es, die Streitkräfte bis 2050 in eine „Welt-
meldungen zu KI in den letzten Jahren in beeindruckendem           klasse“-Armee zu verwandeln. Im Gegensatz zu den USA hat
Maße angestiegen.                                                  China bisher keine ethischen Leitlinien zum Einsatz von KI in
                                                                   Waffensystemen erlassen.
Doch es gibt auch Schwächen im chinesischen KI-Öko-
system: Die KI-Grundlagenforschung kommt überwiegend               Innerhalb der Akademie der Militärwissenschaften (AMS) der
noch aus den USA. Dem Land mangelt es an einheimischen             Volksbefreiungsarmee wurde ein neues Forschungszentrum
KI-Experten: Während in China ca. 18.000 KI-Entwickler arbei-      für künstliche Intelligenz mit mehreren Hundert Militärwissen-
ten, sind es in den USA und EU über fünfmal mehr.43 Es be-         schaftlern und Strategen eingerichtet. Es kann ohne größere
stehen Schwächen bei der Halbleiter-Herstellung und v.a. bei       Beschränkungen forschen und entwickeln.48 Anders als in
der Entwicklung von KI-Chips. Auch ist China durchaus noch         westlichen Staaten kann das autoritäre Regime auch gewagte
vom Ausland abhängig: Nicht wenige der chinesischen KI-            Rüstungsprogramme durchziehen. Kein Parlament stellt kriti-
Erfolge wurden durch ausländisches Kapital und die Koopera-        sche Fragen, die Befindlichkeiten von Bürgern spielen ohne-
tion mit multinationalen Forschungsteams und Unternehmen           hin keine Rolle. Präsident Xi als Oberbefehlshaber und Chef
ermöglicht. So sind die beiden dominierenden Deep Learning         der Militärkommission hat immer das letzte Wort.
Frameworks auch in China Tensorflow (Google) und Pytorch
(Facebook). Zudem zwingt China ausländische Unterneh-              Einer der wichtigsten Grundpfeiler ist die sog. „militärisch-
men zu Technologietransfer und betreibt bekanntermaßen             zivile Integration“(MZI), die 2015 zur nationalen Strategie er-
Industriespionage in großem Stile.                                 klärt wurde. Damit wird das Ziel verfolgt, den militärischen
                                                                   und zivilen Sektor besser zu vernetzten, um gemeinsam an
Pekinger KI-Prinzipien                                             der Entwicklung sog. dual-use-Technologien zu arbeiten.
                                                                   Durch enge Kooperation der Volksbefreiungsarmee (PLA) mit
Angesicht seiner Wirtschaftskraft und seines technologischen       privaten Unternehmen und akademischen Forschungsein-
Fortschrittes möchte China auch bei der Ausgestaltung der          richtungen gelingt es China, sein ökonomisches Wachstum
globalen governance der künstlichen Intelligenz stärker mit-       und seine militärische Modernisierung gleichzeitig zu beför-
reden – nicht nur im Hinblick auf die technischen Standards,       dern und seinen Rückstand im Verteidigungsbereich rasch
sondern auch bzgl. rechtlicher und ethischer Normen. Frühere       aufzuholen. Dazu gehört auch die verstärkte Rekrutierung
Technologien und das Internet waren weitgehend von den USA         ziviler Wissenschaftler für die militärische Forschung.49
bestimmt worden.                                                   Anders als in westlichen Staaten kann das autoritäre chinesi-
                                                                   sche Regime enormen Druck auf private Unternehmen aus-
Folgerichtig veröffentlichte die Peking Akademie für Künst-        üben und sie zur Zusammenarbeit zwingen. Dabei muss sie
liche Intelligenz Ende Mai 2019 die „Pekinger KI-Prinzi-           kaum mit Widerstand aus der Belegschaft rechnen. Mitarbeiter-
pien“ 44. An ihrer Erarbeitung waren die bedeutendsten KI-         proteste wie in US-Technologiekonzernen sind in China un-
Organisationen und Unternehmen Chinas beteiligt, wie z.B.          denkbar.
die drei großen Tech-Unternehmen Baidu, Alibaba und Tencent
sowie die Chinesische Akademie der Wissenschaften. Auf den         2.5 Russische Föderation
ersten Blick haben die Pekinger KI-Prinzipien eine auffallende
Ähnlichkeit mit KI-Prinzipen westlicher Regierungen und            „Künstliche Intelligenz ist die Zukunft, nicht nur für Russland,
Unternehmen45. Auf den zweiten Blick wird jedoch deutlich,         sondern für die gesamte Menschheit. Sie bringt kolossale
dass das Individuum zugunsten von Staat und Gemeinschaft           Chancen mit sich, aber auch Bedrohungen, die schwer vorher-
stark in den Hintergrund rückt.                                    zusagen sind. Wer die Führung bei der KI übernimmt, wird die
                                                                   Welt regieren“.50
Mit Blick auf die politische Praxis wirken die Pekinger KI-Prin-
zipien zynisch: die Staatsregierung setzt bereits in über 70       Mit diesem berühmt gewordenen Spruch positionierte der
Städten KI-gestützte Überwachungssysteme mit Gesichts-             russische Präsident Wladimir Putin 2017 sein Land im techno-
erkennungs-Software als Instrument zur systematischen              logischen Wettrennen um künstliche Intelligenz. Allerdings
Überwachung seiner Bürger (social credit system), zur Unter-       befand sich Russland zu dieser Zeit in einer sehr schlechten
drückung von Protestbewegungen sowie zu Verbrechen                 Ausgangsposition: ein schwacher privater Tech-Sektors mit
gegen die Menschlichkeit an der muslimischen Minderheit in         nur wenigen KI-Start-ups51, das Fehlen einer Innovations-
Xinjiang und darüber hinaus ein.                                   kultur, ein relativ niedriges Budget für KI-Forschung und Ent-
                                                                   wicklung52, ein magerer Verteidigungshaushalt, der Exodus
KI-Militärstrategien                                               gut ausgebildeter Fachkräften sowie die westlichen Sank-
                                                                   tionen auch in zentralen Bereichen des Verteidigungssektors.
Im Juli 2019 verabschiedete China sein zehntes Weißbuch            Damit war Russland im globalen KI-Wettrennen weit abge-
zur Verteidigungspolitik.46 Ausführlich werden darin die neuen     schlagen und es schien unwahrscheinlich, dass das Land
außen- und verteidigungspolitischen Grundsätze sowie die           jemals mit China und den USA würde konkurrieren können.
13

Und auch wenn Russland in naher Zukunft wohl nicht die Welt       wichtigste Ziele werden genannt: Wohlstandsgewinn, höhere
der KI anführen wird53, sollten seine potentiellen Fähigkeiten    Lebensqualität, nationale Sicherheit, Konkurrenzfähigkeit der
nicht unterschätzt werden, denn das Land unternimmt gro-          russischen Wirtschaft und eine internationale Führungsrolle
ße Anstrengungen, um seinen Rückstand aufzuholen.54 Vor           bei künstlicher Intelligenz. Die Rolle des Privatsektors bei der
allemdie in den MINT-Fächern gut ausgebildeten Arbeitskräfte      nationalen KI-Entwicklung wird nicht definiert.
können dabei helfen, das Land auch im KI-Sektor wieder in die
Reihen der High-Tech-Trendsetzer zurückzubringen.                 Ethik-Kodex für den Umgang mit künstlicher Intelligenz
                                                                  gefordert
Der Staat als Enabler
                                                                  In einer aufsehenerregenden Rede anlässlich der „Artificial
Anders als in den USA und Europa sind in Russland nicht           Intelligence Journey-Konferenz“ in Moskau forderte der russi-
private Tech-Konzerne führend bei der KI-Entwicklung, viel-       sche Präsident Wladimir Putin Anfang November 2019 neue
mehr stehen staatliche und staatsnahe Unternehmen im              Regeln zur Entwicklung künstlicher Intelligenz. Die Fachwelt
Mittelpunkt. Und noch stärker als in China gibt die russische     und Unternehmen sollten moralische Regeln für die Inter-
Regierung den Kurs vor. Ein Großteil der militärischen KI-For-    aktion zwischen Mensch und künstlicher Intelligenz auf-
schung findet im russischen Verteidigungsministerium statt,       stellen. „Technologie dürfe nicht um der Technologie willen
das über eine weiteichende technische, akademische und            erfunden werden“.56
industrielle Infrastruktur sowie enorme finanzielle, personelle
und materielle Ressourcen verfügt. Damit ist der russische        KI im Militärsektor der Russischen Föderation
KI-Ansatz primär ein Top-Down-Modell. Doch die russische
Regierung ist zunehmend darum bemüht, den wachsenden              Der russische Verteidigungssektor bereitet sich seit Jahren
privaten High-Tech-Sektor mit der expansiven militärisch-         auf einen langwierigen High-Tech-Wettbewerb mit seinen
akademischen Infrastruktur zu vernetzten.                         wichtigsten Gegnern – Vereinigte Staaten und NATO – vor. Be-
                                                                  reits 2012 hat das russische Verteidigungsministerium mit der
Russische KI-Strategie                                            Erforschung und Entwicklung unbemannter und roboter-
                                                                  gestützter Luft-, Boden- und Seesysteme begonnen. Inzwi-
Erstmals kündigte Präsident Wladimir Putin in seiner Rede         schen arbeitet es verstärkt daran, Elemente künstlicher In-
zur Lage der Nation im Februar 2019 ein großangelegtes            telligenz in die Waffensysteme zu integrieren. Gerade für die
Programm zur künstlichen Intelligenz an, mit dem er Russ-         hybride Kriegsführung Russlands spielt KI eine zentrale Rolle.
land bis Mitte der 2020er Jahre zu einem Weltmarktführer          Die meisten militärischen KI-Projekte werden unter der Schirm-
machen will. Im Oktober 2019 verabschiedete er per Dekret         herrschaft des russischen Verteidigungsministeriums (MOD)
die lang erwartete Nationale Strategie zur Entwicklung der        und seiner angeschlossenen Institute, Forschungszentren und
künstlichen Intelligenz für den Zeitraum bis 2030 55. Als         Industriekonglomerate durchgeführt.

3. Die ethische Verantwortung von Unternehmen —
   Das Beispiel der US-Technologiekonzerne
Mit zunehmender Verbreitung der künstlichen Intelligenz           Google
kommt KI-Forschern, Entwicklern und IT-Unternehmen eine
wachsende ethische Verantwortung bzgl. des potentiellen           Bei Google kam es wiederholt zu massiven Protesten von tau-
Einsatzes und der gesellschaftlichen Auswirkungen der von         senden von Mitarbeitern und sogar Kündigungen. Zuerst im
ihnen entwickelten Technologie zu. In ganz besonderem             April 2018 im Zusammenhang mit dem umstrittenen MAVEN-
Maße gilt dies für den Einsatz von künstlicher Intelligenz im     Projekt des Verteidigungsministeriums, in dem Mitarbeiter
Sicherheits- und Verteidigungssektor, dem wohl sensibelsten       den Einstieg in die Entwicklung autonomer Waffensysteme
Bereich der KI überhaupt.57                                       befürchteten. Seit 2017 hatte Google KI geliefert, mit der das
                                                                  Videomaterial, das von US-Überwachungsdrohnen aufge-
Bei den Mitarbeitern der großen US-Technologieunterneh-           zeichnet wurde, effizient nach militärisch relevanten Objekten
men wachsen die Bedenken, dass die neue Technologie               durchsucht werden kann. Erneut kam es im Oktober 2018,
statt zum Wohle der Menschheit zur Verletzung grundlegen-         anlässlich des ebenso umstrittenen JEDI-Projektes, einem
der Menschenrechte, zu Eingriffen in die Privatsphäre oder        milliardenschweren Auftrag des Pentagon für den Aufbau
sogar zum Töten von Menschen eingesetzt werden könnte.            einer US-Militär-Cloud, zu massiven Mitarbeiterprotesten.
Ihre internen Proteste werden lauter und insistenter und
nicht wenige von ihnen verweigern die Mitarbeit an militä-        Die Mitarbeiter forderten in offenen Briefen an die Unterneh-
risch genutzten Technologien.                                     mensführung58 ein klares Bekenntnis des Konzerns, niemals
                                                                  Technologie zu entwickeln, die für Kriegszwecke eingesetzt
14 Lizenz zum Töten

werden könnte. Der Druck der Mitarbeiter, unterstützt von         Vorgestellt wurde der offene Brief zur Eröffnung der „Int. Joint
Politikern und Menschenrechtsorganisationen, zeigte Wirkung.      Conference on AI“ (IJCAI), einer der weltweit führenden KI-
Google zog sich aus den Projekten zurück und verzichtete          Konferenzen. Inzwischen wurde dieser Brief von über 4.500
damit auf milliardenschwere Aufträge aus dem Pentagon.            Forschern weltweit und mehr als 26.000 weiteren Perso-
                                                                  nen unterzeichnet. Zwei Jahre später während der IJCAI im
Bereits nach den MAVEN-Protesten veröffentlichte Google           August 2017 richteten Elon Musk und Mustafa Suleyman
im Juni 2018 „Sieben ethische KI-Grundsätze“59. Zu den            (Deep Mind) einen offenen Brief an die Vereinten Nationen64,
Grundsätzen gehört beispielsweise, dass die Technologie           in dem sie ein sofortiges Verbot von LAWS und ihre Aufnah-
stets einen sozialen Nutzen haben müsse, etwa in den Berei-       me in die Liste der verbotenen Waffen des CCW forderte. Der
chen Gesundheitsversorgung, Sicherheit, Energie, Verkehr etc.     Brief wurde von 116 Experten aus 26 Ländern unterschrieben.
Außerdem dürfe KI keine Vorurteile hinsichtlich Geschlecht,
Rasse oder Alter widerspiegeln beziehungsweise verstärken.
Die Grundsätze weisen auch vier Bereiche aus, in denen            Das ambivalente Verhältnis des Silicon Valley
Google auf den Einsatz von künstlicher Intelligenz verzichten     zum Pentagon
wird. Darunter z.B. Technologien, deren Zweck gegen allge-
mein anerkannte Grundsätze des Völkerrechts und der Men-          Wie o. g. Beispiele zeigen, ist das Verhältnis zwischen dem
schenrechte verstößt. Google verpflichtet sich ferner, keine      US-Technologiesektor und dem amerikanischen Verteidi-
künstliche Intelligenz für den Einsatz in Waffen zu liefern. In   gungsministerium schon seit Jahren äußerst ambivalent.65
der nationalen Sicherheitsgemeinschaft löste diese Entschei-      Auf der einen Seite stehen Unternehmen wie Amazon, Intel,
dung der Unternehmensführung eine Schockwelle aus. Man            IBM, Microsoft und Oracle, die bedenkenlos ihre Technologie
sah es als Verrat an, dass Google es ablehnte, das Heimatland     in den Dienst des Militärs und der Sicherheitskräfte stellen
gegen China zu verteidigen.                                       und gezielt um Kooperationen mit dem Pentagon buhlen.66
                                                                  Unternehmen wie Google und Apple halten hingegen eine vor-
                                                                  sichtige Distanz zum Pentagon, weil sie Reputationsschäden
Microsoft                                                         bei Kunden und Mitarbeitern fürchten, die zunehmend poli-
                                                                  tische Glaubwürdigkeit einfordern. Im politisch mehrheitlich
Auch bei Microsoft kam es zu Mitarbeiterprotesten. Der            linksstehenden Silicon Valley müssen sie genau darauf achten,
Konzern setzte sich im Oktober 2018 im Bieterrennen um            wie die Zusammenarbeit mit dem Militär oder der Verteidi-
das JEDI-Projekt durch. Ähnlich wie ihre Kollegen bei Google      gungsindustrie interpretiert werden könnte.
riefen auch Mitarbeiter bei Microsoft in einem „offenen
Brief“60 dazu auf, sich nicht am JEDI-Projekt des Pentagon        Das Pentagon, dessen Image vor allem seit den Enthüllungen
zu beteiligen und forderten ebenfalls ethische Grundprinzi-       von Edward Snowden im Jahre 2013 schwer ramponiert ist,
pien des Konzerns. Doch die Proteste blieben wirkungslos.         ist sehr um bessere Beziehungen zum Silicon Valley bemüht.
Präsident Brad Smith rückte nicht von der Kooperation mit         Es tut dies auch aus eigenem Interesse, denn militärische
dem Pentagon ab. Nur ein Jahr später wiederholten die Mit-        Schlüsseltechnologien entstehen heute nicht mehr in den
arbeiter ihre Forderungen. Anlass war dieses Mal ein Vertrag      Werkstätten des Militärs, sondern in den großen Tech-Kon-
Microsofts mit dem Pentagon im Wert von $ 480 Mio. über           zernen. Und die Furcht des Pentagon, von China militär-tech-
die Lieferung von 100.000 HoloLens2-Brillen an das US-            nologisch überholt zu werden, ist groß.
Militär. In einen Brief an CEO Satya Nadella und Präsident
Brad Smith forderten sie die Zusammenarbeit mit dem Militär       Gleichzeitig sieht das Pentagon das China-Engagement man-
und die Entwicklung jeglicher Waffentechnologie zu beenden        cher großer Tech-Unternehmen kritisch: Als Google im Früh-
und eigene KI Ethik-Leitlinien zu verabschieden. Microsofts       jahr 2018 mit dem „Google AI China Center“ in Peking ein KI-
Topmanager warnten jedoch davor, sich aus neuen Techno-           Forschungszentrum eröffnete, brachte ihm das den Vorwurf
logien wie Augmented Reality oder künstlicher Intelligenz         der unpatriotischen Haltung und sogar des Landesverrates
im Militärkontext zurückzuziehen. Aber auch Microsoft ent-        u. a. durch den ehemalige stellvertretende Verteidigungs-
wickelte eigene Leitlinien: sechs Grundsätze für KI und Ethik,    minister Robert Work67 und den Milliardär Peter Thiel ein.
vorgestellt von Präsidenten Brad Smith62.                         Während Google sich weigere, mit dem Pentagon zusammen-
                                                                  zuarbeiten, stelle es gleichzeitig seine KI-Technologie China
                                                                  zur Verfügung und schade damit den Vereinigen Staaten.
TESLA                                                             Derselbe Vorwurf müsste auch Microsoft treffen, denn der
                                                                  Konzern kooperiert im Bereich der Überwachungstechnolo-
Eine ganz andere Unternehmenspolitik verfolgt TESLA. Dessen       gie mit der National University of Defense Technology (NUDT),
Gründer Elon Musk hat sich zu einem der prominentesten            die vom chinesischen Militär finanziert wird.
Gegner von LAWS entwickelt. Er lehnt eine militärische Nut-
zung von KI strikt ab und verweigert jegliche Kooperation mit
dem Pentagon. Bereits 2015 hatten er und führende KI und          Unternehmensinitiativen für einen
Robotiks-Forscher (darunter Stephen Hawking, Steve Wozniak        verantwortungsvollen Umgang mit KI
(Apple-co-Founder) und Demise Hassabis (CEO of Deep Mind))
in einen offenen Brief63 ein präventives LAWS-Verbot gefordert.   In einer gemeinsamen Initiative gründeten Amazon, Apple,
                                                                  Facebook, Google, Deepmind, IBM und Microsoft Ende 2016
Sie können auch lesen