LIZENZ ZUM TÖTEN Künstliche Intelligenz in den Waffen-systemen und neue Herausforderungen für die Rüstungskontrolle
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
LIZENZ ZUM TÖTEN Künstliche Intelligenz in den Waffen- systemen und neue Herausforderungen für die Rüstungskontrolle Dr. Gabriele Reitmeier ANALYSE
Impressum Herausgeber Friedrich-Naumann-Stiftung für die Freiheit Truman-Haus Karl-Marx-Straße 2 14482 Potsdam-Babelsberg /freiheit.org /FriedrichNaumannStiftungFreiheit /FNFreiheit Autorin Dr. Gabriele Reitmeier, Themenmanagerin Liberale Entwicklungspolitik & Vernetzte Sicherheit Redaktion Referat Globale Themen/Fachbereich Internationales Friedrich-Naumann-Stiftung für die Freiheitt Kontakt Telefon +49 30 220126-34 Telefax +49 30 690881-02 E-Mail service@freiheit.org Stand Oktober 2020 Hinweis zur Nutzung dieser Publikation Diese Publikation ist ein Informationsangebot der Friedrich- Naumann-Stiftung für die Freiheit. Die Publikation ist kostenlos erhältlich und nicht zum Verkauf bestimmt. Sie darf nicht von Parteien oder von Wahlhelfern während eines Wahlkampfes zum Zwecke der Wahlwerbung verwendet werden (Bundes- tags-, Landtags- und Kommunalwahlen sowie Wahlen zum Europäischen Parlament). Lizenz Creative Commons (CC BY-NC-ND 4.0)
Inhalt 1. KÜNSTLICHE INTELLIGENZ IN WAFFENSYSTEMEN 5 Zusammenfassung 5 Definition von LAWS 5 Grade von Autonomie 5 Aktueller Stand der Entwicklung von LAWS 6 Einsatzmöglichkeiten von LAWS im militärischen Bereich 6 Die Zukunft militärischer KI 6 Pro und Contra militärischer KI 6 Ethische und rechtliche Grundsatzfragen 7 Künstliche Intelligenz in der Rüstungskontrolle 7 2. ENTWICKLUNG MILITÄRISCHER KI IN AUSGEWÄHLTEN STAATEN 8 2.1 Europäische Union 8 Militärische KI in der Europäischen Kommission und dem Europäischen Parlament 8 Europäische Verteidigungsagentur und militärische KI 8 Europäischer Verteidigungsfonds und militärische KI 8 2.2 EU-Mitgliedsstaaten 8 Frankreich 9 Großbritannien 9 Deutschland 9 2.3 USA 10 Entwicklung von KI in den USA 10 KI im US- Militärsektor 10 2.4 Volksrepublik China (VRC) 11 Entwicklung von KI in der VRC 11 KI im Militärsektor der VRC 12 2.5 Russische Föderation 12 Entwicklung von KI in der Russischen Föderation 12 KI im Militärsektor der Russischen Föderation 13
4 Lizenz zum Töten 3. DIE ETHISCHE VERANTWORTUNG VON UNTERNEHMEN — DAS BEISPIEL DER US-TECHNOLOGIEKONZERNE 13 Google 13 Microsoft 13 Tesla 14 Das ambivalente Verhältnis des Pentagon zum Silicon Valley 14 Unternehmens-Initiativen für einen verantwortungsvollen Umgang mit KI 14 4. VERHANDLUNGEN ZUR REGULIERUNG VON LAWS IM RAHMEN DER UN-WAFFENKONVENTION 15 Positionen der EU, USA, Chinas und Russlands 15 Die neuen „Leitprinzipien für den Umgang mit LAWS“ 16 Ausblick 16 5. POLITISCHE FORDERUNGEN 16
5 1. Künstliche Intelligenz in Waffensystemen Zusammenfassung Tödliche autonome Waffensysteme (lethal autonomous prüfungskonferenz des VN-Waffenübereinkommens im weapon systems, LAWS) stehen für die dritte Revolu- Dezember 2021 Empfehlungen für ein umfassendes tion in der Kriegsführung. Wie früher das Schießpulver gemeinsames „Rahmenwerk“ d.h. die Grundlagen für ei- und später die Atombombe werden LAWS die Art der nen internationalen Verbotsvertrag zu erarbeiten, drohen Kriegsführung radikal verändern und damit über die die Verhandlungen endgültig zu scheitern. Machtverhältnisse der Welt von morgen entscheiden. Viele Staaten arbeiten bereits an der Entwicklung von Die wichtigsten politischen Forderungen: voll-autonomen Waffen, allen voran die USA, China, Is- B Tödliche voll-autonome Waffen (LAWS) müssen rael und Südkorea. Die EU-Mitgliedsstaaten vertreten sehr global verboten werden. unterschiedliche Positionen bzgl. LAWS. Entsprechend unterschiedlich sind die nationalen Voraussetzungen und B Das Prinzip der “meaningful human control” sollte als Fähigkeiten zur Entwicklung militärischer KI. In Deutsch- universelle Norm bei Waffensystemen beibehalten/ land ist das Thema militärische KI jenseits der Drohnen- eingeführt werden. debatte noch nicht in den Fachkreisen und noch weniger B Adäquate technologische Ansätze für die Rüstungs- in der Gesellschaft angekommen. kontrolle und Verifikation von KI-gestützten Waffen- systemen sind zu entwickeln. Mit dem Einsatz von LAWS sind grundlegende ethische und rechtliche Fragestellungen verbunden, auf die die B Europa braucht eine gemeinsame militärische KI- internationale Gemeinschaft bisher noch keine überein- Strategie. stimmenden Antworten gefunden hat. Mit ihrem Einsatz B Für die Entwicklung/Nutzung und Ausfuhr bewaffne- sind auch große Sicherheitsrisiken verbunden. Doch der ter und bewaffnungsfähiger Drohnen müssen euro- Weltgemeinschaft ist es bisher nicht gelungen, einen völ- päische/internationale Standards eingeführt werden. kerrechtlich verbindlichen Vertrag zur Regulierung bzw. für ein Verbot von LAWS zu verabschieden. Dazu fehlte B Voll-autonome Drohnenschwärme sind als Massen- vor allem der politische Wille. vernichtungswaffen einzustufen. B Das europäische KI-System muss wettbewerbsfähi- Immerhin konnten sich die 125 Vertragsstaaten der UN- ger werden. Waffenkonvention (CCW) im Herbst 2019 auf gemeinsame Leitprinzipien für den Umgang mit LAWS (Guiding Principles B Es braucht einen globalen Dialog über ethische on Lethal Autonomous Weapons Systems) einigen. Gelingt Standards bzgl. Entwicklung und Nutzung künstlicher es den CCW-Vertragsstaaten jedoch nicht, bis zur 6. Über- Intelligenz Definition von LAWS Der Begriff LAWS steht für „Lethal autonomous weapon Viele Systeme werden zunächst teil-autonom betrieben, d.h. systems“, d.h. tödliche autonome Waffensysteme. Eine all- mit einem menschlichen Akteur als letzter Instanz. Der Pro- gemein akzeptierte Definition von LAWS gibt es bisher nicht. zess der zunehmenden Autonomisierung vollzieht sich dann Die internationale Fachwelt verwendet meist jene funktionale Schritt für Schritt:1 In dem Maße wie einzelne Funktionen be- Definition von „Autonomie in Waffensystemen“, die sich die stehender Waffensysteme nach und nach autonom gestaltet USA und das Internationale Komitee vom Roten Kreuz (IKRK) werden, in dem Maße nimmt die Rolle des Menschen bei der zu eigen gemacht haben: Danach sind Waffensysteme „voll- Entscheidungsfindung über den Waffeneinsatz ab. Man unter- autonom“, wenn sie nach ihrer Aktivierung den gesamten Pro- scheidet drei Stufen: zess der Zielbekämpfung (targeting cycle) ohne signifikante menschliche Kontrolle durchlaufen. Dieser besteht aus fünf B Menschen sind ‘in the loop’ (Entscheidungsschleife) Schritten: find, fix, track, select, engage. Kurz gesagt: LAWS wenn sie ein hohes Maß an Steuerung und Kontrolle können selbständig ein Ziel wählen, angreifen und töten. über die Systeme behalten (automatische Systeme). Grade von Autonomie B Menschen sind ‘on the loop’ wenn die Systeme zwar autonom agieren, der Mensch jedoch weiterhin den Schon lange sind Waffen im Einsatz, z.B. Raketenabwehr- Prozess überwacht und kontrolliert (halb-autonome systeme, die in den ersten drei Phasen des „targeting cycle“ Systeme). (d.h. find, fix, track) – autonom operieren können. Neu ist die Erweiterung der Autonomie auf die Phasen „select“ und „en- B Menschen sind ‘off the loop’ wenn die Systeme völlig gage“ und deren Einsatz in allen Waffengattungen, nicht nur autonom und ohne jegliches Eingreifen des Menschen in der Verteidigung. arbeiten (voll-autonome Systeme).
6 Lizenz zum Töten Aktueller Stand der Entwicklung von LAWS teme“, d.h. Systeme, die die Fähigkeit besitzen, aus früheren Anwendungen zu lernen und sich an lokale Gegebenheiten Experten schätzen, dass weltweit bereits über 30 Nationen und Umstände dynamisch anzupassen, denen sie zuvor noch aktiv an der Entwicklung von voll-autonomen Waffen arbei- nicht ausgesetzt waren. Großes militärisches Interesse be- ten2, darunter vor allem die USA, China, Israel, Südkorea, steht auch an der sog. Schwarmtechnologie, die als „game Frankreich, Großbritannien und Russland. Rund 380 teil- oder changer“ gilt. Ein Schwarm ist eine Gruppe einzelner Systeme, voll-autonome Waffensysteme existieren bereits oder sind in die interagieren und als Kollektiv mit einem gemeinsamen Arbeit.3 Der weitaus überwiegende Teil der Waffensysteme Ziel arbeiten. Die Einheiten koordinieren sich selbst, ohne zen- ist derzeit noch teil-autonom, d.h. ihre Handlungsautonomie trale Steuereinheit. Einzelne Defekte oder Abschüsse haben ist noch beschränkt und ihre Steuerung unterliegt noch der also nur einen geringen Effekt auf die Leistungsfähigkeit des menschlichen Kontrolle. Doch die Zahl der Funktionen, die Schwarms. Es kann sich dabei um Drohnen-, Roboter- oder Waffensysteme automatisch oder auch autonom ausführen U-Boot-Schwärme handeln. Ihre Kontrolle durch den können, nimmt kontinuierlich zu. Menschen gestaltet sich jedoch schwierig.4 Eine Reihe von Ländern arbeitet bereits an experimentellen Vorstufen der Tarnkappen-Kampfdrohnen. Sie erreichen lange Einsatz- Einsatzmöglichkeiten von KI zeiten und hohe Geschwindigkeiten und bleiben vom Ra- im militärischen Bereich dar unentdeckt. Das bekannteste Beispiel ist die britische „Taranis“-Drohne. In ca. zehn Jahren werden diese Tarnkappen- Der Einsatz künstlicher Intelligenz im militärischen Bereich Kampfdrohnen einsatzbereit sein. hat hohes Potential – sowohl im defensiven wie im offensi- ven Bereich. Im defensiven Bereich kommen KI-gestützte Systeme v.a. bei der Aufklärung und Lagebeurteilung (Ein- Pro und Contra militärischer KI schätzung gegnerischer Kräfte und schnelle Ausführung von Vergeltungsschlägen), Logistik (autonome Fahrzeuge, Liefer- Befürworter betonen, dass durch die zunehmende Autonomie drohnen), Abwehrsystemen (v.a. gegen Raketen, Marsch- in den Waffensystemen Geschwindigkeit, Reichweite, Präzision flugkörper und Artilleriegranaten) sowie bei der Kampfmittel- sowie Schlagkraft von Operationen erheblich erhöht werden beseitigung zum Einsatz. Im offensiven Bereich kommen KI- könnten. KI-gestützte Systeme erlaubten eine wesentlich gestützte Systeme in LAWS zum Einsatz. d.h. in Kampfdroh- breitere und schnellere Erfassung der Bedrohungslage und nen, Panzern, Kampfrobotern, Schiffen und U-Booten. des Geschehens auf dem Schlachtfeld. Sie ermöglichten es gleichzeitig, schnellere und qualifiziertere Entscheidungen zu Zu den Waffensysteme, die auf dem Weg zur Autonomie treffen, als ein Mensch. Auch seien sie schneller und besser bereits weit fortgeschritten sind, zählen die Drohne HARPY in der Lage, die enormen Datenmengen zu verarbeiten, die (Israel), die Kamikaze-Drohne KUB-BLA (Russland), der Kampf- moderne Armeen in bewaffneten Konflikten zu bewältigen hät- panzer T-14 Armata (Russland), die Helikopter-Drohne Blow- ten. Zudem seien sie nicht anfällig für Müdigkeit oder Stress. fish A3 (China), das Drohnenkampfschiff JARI (China), der Letztendlich könne dadurch das Leben der eigenen Soldaten SGR-A1 Kampfroboter (Südkorea), der Sea Hunter (USA) so- geschützt und die Zahl ziviler Opfer verringert werden. wie die Tarnkappen-Kampfdrohnen Taranis (GB) und nEUROn (Frankeich) Die Gegner von militärischer KI verweisen auf die vielen Ge- fahren, die mit ihrem Einsatz verbunden sind:5 Abb. 1 | HARPY-Drohne – gilt in Expertenkreisen als voll-autonom. B Gefahr der bewussten/unbewussten Manipulation und des Hacking KI-Systeme sind sehr abhängig von der Exaktheit der eingegebenen Daten. Sie sind anfällig für bewusste und unbewusste Voreingenommenheit (bias). Algorithmen spiegeln die moralischen Vorurteile und Stereotype ihrer Programmierer wider und kommen immer wieder zu bi- zarren Fehleinschätzungen. Zudem besteht die Gefahr des Hacking oder der Manipulation per Schadsoftware. Quelle: https://creativecommons.org/licenses/by/4.0/legalcode B Neue Dimension globaler Destabilisierung Durch autonome Systeme kann die Hemmschwelle, einen Krieg zu führen, deutlich sinken, denn dank dem Einsatz Die Zukunft militärischer KI von LAWS kann der Verlust an Menschenleben und Ausrüs- tung stark reduziert werden. Gleichzeitig beschleunigen Bisher sind die meisten KI-gestützten Waffensysteme nur autonome Systeme das Tempo von Kriegshandlungen in sehr begrenzt einsetzbar. Sie können nur genau umrissene einem Maße, dass es die menschliche Reaktionsfähigkeit Aufgaben erfüllen und sich noch nicht an sich verändernde übersteigt. Damit besteht die Gefahr der automatischen Situationen anpassen. Aber genau das ist im realen Kampf- Konflikteskalation („flash wars“), erhöhter Opferzahlen so- geschehen notwendig. Dazu braucht es sog. „lernende Sys- wie einer neuen Dimension globaler Destabilisierung. Eine
7 besondere Gefahr geht von künstlicher Intelligenz in nuk- Rechtliche Frage: Sind LAWS mit dem humanitären Völker- learen Systemen aus. Mit einer künstlichen Intelligenz als recht vereinbar? Kontrollinstanz nuklearer Abwehrsysteme potenziert sich das Risiko eines Einsatzes von Atomwaffen.6 Im Rahmen eines bewaffneten Konfliktes gilt stets, d.h. unab- hängig von den eingesetzten Waffensystemen, das humani- B Gefahr der Proliferation täre Völkerrecht. Dieses hat sich jedoch im Lichte konventio- Es besteht auch eine hohe Gefahr der Proliferation. Der- neller Waffensysteme entwickelt, die nicht autonom handeln. zeit sind nur wenige reiche Länder in der Lage, LAWS zu Folglich richtet es sich an Menschen und nicht an Maschinen. erforschen und zu entwickeln. Aber die Produktion wird günstiger, u.a. wegen des 3D-Drucks, und es braucht, B Contra:11 LAWS sind mit dem humanitären Völkerrecht anders als bei Atomwaffen, für ihre Herstellung keine be- unvereinbar, denn autonome Systeme sind nicht in der sonderen Rohstoffe. Zudem ist der Export von (teil-)auto- Lage, in dynamischen Kampfsituationen zwischen Kom- nomen Waffen schon längst ein blühender Markt. Auch battanten und Zivilisten oder zwischen militärischen und autoritäre Führer und nicht-staatliche Akteure wie Terror- zivilen Objekten zu unterscheiden. Auch die Verhältnismä- gruppen, Warlords und Kriminelle sind in der Lage, LAWS ßigkeit eines Angriffs einzuschätzen, sei unmöglich für zu beschaffen. Houthi Rebellen, ISIS und Boko Haram set- eine Maschine. Zudem sei bei LAWS, die den Schießbefehl zen bereits Kampfdrohnen ein. Experten schätzen, dass autonom erteilen, die zentrale Rolle des Menschen beim mindestens 102 Länder Programme für militärische Dro- Waffeneinsatz und dessen Verantwortlichkeit nicht mehr hen haben.7 Je mehr Akteure jedoch über LAWS verfügen, gegeben. Dadurch besteht eine „Verantwortungslücke“, umso schwieriger wird ihre internationale Kontrolle. d. h. es ist nicht mehr klar, wer zur Verantwortung gezogen werden kann, wenn die Maschine falsch entscheidet. Ist B Übereilter Einsatz unsicherer Systeme es die Nation, der Kommandant, der Operator, der Herstel- Die wirkliche Gefahr des „KI-Wettrüstens“ besteht nicht ler, der Programmierer – oder das Waffensystem selbst? darin, dass ein Land in der KI-Entwicklung hinter seinen Konkurrenten zurückfällt, sondern dass die Perzeption B Pro: Künftig wird es möglich sein, LAWS so zu program- eines Wettrennens alle Länder dazu veranlasst, übereilt mieren, dass sie die Grundprinzipien des humanitären unsichere KI-Systeme einzusetzen und damit sich selbst Völkerrechts einhalten können. Mit LAWS kann die Kriegs- und alle anderen zu gefährden.8 führung sogar humaner werden, da Menschen an der Front nicht mehr gebraucht werden. Außerdem ist auch in Kriegen, die von Menschen geführt wurden, das huma- Ethische und rechtliche Grundsatzfragen nitäre Völkerrecht immer wieder massiv verletzt worden.12 Beim Einsatz von LAWS stellen sich grundlegende ethische B Alternativer Ansatz: LAWS können weder als Waffen und rechtliche Fragen, auf die die internationale Gemein- noch als klassische Kombattanten behandelt werden. schaft bisher noch keine übereinstimmenden Antworten Deshalb greift das bestehende humanitäre Völkerrecht gefunden hat: nicht und es muss ein neues Recht geschaffen werden. Geeignet wäre eine neue Konvention, unter der „irreguläre Ethische Frage: Darf die Entscheidung über Leben und Tod Kämpfer“ wie autonome Waffensysteme rechtlich regu- eines Menschen einer Maschine überlassen werden? liert würden 13 B Argumentation der Gegner: Es verletzt die Würde des Menschen, Entscheidungen über Leben und Tod auf dem Künstliche Intelligenz in der Rüstungskontrolle14 Schlachtfeld an Algorithmen zu delegieren. Das Töten im Krieg auf Maschinen auszulagern und automatisch „ab- Künstliche Intelligenz ist zu einem wichtigen Thema in der arbeiten“ zu lassen, mache Menschen zu Objekten. Für Rüstungskontrolle geworden, und zwar in doppelter Hinsicht. die Getöteten mag es keinen Unterschied machen, ob Als Gegenstand der Rüstungskontrolle entzieht sich KI den ein Mensch oder ein Algorithmus ihren Tod bewirkt hat. bisherigen, traditionellen Ansatzpunkten, da sie weder phy- Aber die Gesellschaft, die eine solche Praxis erlaubt und sische Eigenschaften oder Fähigkeiten noch transparente mit dem Töten im Krieg ihr kollektives menschliches Ge- Funktionsweisen besitzt, auf denen aktuelle Methoden und wissen nicht mehr belastet, riskiert nicht weniger als die Verfahren zur quantitativen wie qualitativen Beschränkung Aufgabe der grundlegendsten zivilisatorischen Werte und in der Rüstung basieren. Auf der anderen Seite gibt KI der humanitären Prinzipien.9 Dies ist eine rote Linie, die die Rüstungskontrolle aber auch neue Werkzeuge an die Hand. Menschheit niemals überschreiten sollte. So ist es denkbar, dass die Verifikation bestehender und neuer Rüstungskontrollverträge, also die Überprüfung ihrer B Argumentation der Befürworter: Auch der Mensch ist in Einhaltung, in erheblichem Maß von KI als technischem Hilfs- Kriegssituationen nicht unfehlbar, v. a. wenn er von starken mittel profitieren könnte, etwa durch eine höhere Präzision Emotionen wie Zorn oder Angst geleitet wird. Durch LAWS und Geschwindigkeit bei der Sammlung, Verarbeitung und kann die Kriegsführung präziser geführt und somit die Analyse von Daten. Zivilbevölkerung besser geschützt werden.10
8 Lizenz zum Töten 2. Entwicklung von LAWS in ausgewählten Staaten 2.1 Europäische Union Gleichzeitig hat die Europäische Verteidigungsagentur (EVA), der EU-Hub für Verteidigungsinnovationen, ihre Aktivitäten Die EU hat durchaus das Potential, zu einem globalen Führer im Bereich KI erheblich erweitert. Bereits in den Jahren 2017- im Bereich der künstlichen Intelligenz und ihrer Anwendung 2019 hatte sie im Rahmen des PADR-Projektes (Preparatory im Verteidigungssektor zu werden: Das europäische KI-Eco- Action on Defence Research) mit der Entwicklung autonomer System ist insgesamt gut entwickelt, mit ex-EU-Mitglied Systeme begonnen. Weitere sind in Vorbereitung.22 Künftig Großbritannien klar an der Spitze gefolgt von Deutschland, wird die EVA auch die Zusammenarbeit der EU-Mitglieds- Frankreich und Spanien. Die EU verfügt über das größte An- staaten zu militärischer KI bündeln.23 Der dafür entwickelte KI- gebot an Software-Entwicklern, darunter auch die Top-KI-Ex- Aktionsplan wird Ende 2020 vorgestellt. perten.15 Mit 425.000 KI-Publikationen liegt die EU weltweit an der Spitze, mit 233.000 Patent-Anmeldungen im Bereich Militärische KI ist auch im neuen Europäischen Verteidigungs- KI nimmt sie Platz zwei ein.16 Das EU-Verteidigungsbudget fonds (EVF) berücksichtigt. Dieser ist mit ca. 7 Mrd. € ausge- in Höhe von $ 281 Mrd. ist das zweitgrößte weltweit. Mit stattet und wird grenzüberschreitende Rüstungsprojekte und Airbus Defence & Space GmbH (Eurodrohne), Future Combat militärische Forschung fördern. Zwischen 4-8 Prozent seines Air Systems (FCAS), BAE Systems, ATOS, THALES etc. befin- Budgets werden in „disruptive Technologien und hochriskante den sich einige der größten Rüstungsunternehmen weltweit Innovationen“ investiert. Dabei handelt es sich um Techno- innerhalb der EU. logien wie KI, von denen man sich radikale Veränderung von Theorie und Praxis der Kriegsführung verspricht. U. a. wird Allerdings besteht auch die Gefahr, dass dieses Potential ver- die Entwicklung der Eurodrohne und das Future Combat Air spielt wird: Das europäische KI-Eco-System ist nach wie vor System (FCAS), das größte Rüstungsprojekt Europas, aus stark fragmentiert, d.h. die Voraussetzungen für die KI-Ent- EVF-Mitteln finanziert. Ziel ist es, die gemeinsame Rüstungs- wicklung in den EU-Mitgliedsstaaten variieren erheblich und forschung und -entwicklung zu fördern, um so Effizienz sowie ihre nationalen KI-Strategien sind noch nicht harmonisiert. Wettbewerbs- und Innovationsfähigkeit des europäischen Die europäischen Investitionen in künstliche Intelligenz lie- Verteidigungssektors zu stärken. Dies ist auch dringend not- gen weit hinter jenen der USA und Chinas. Das europäische wendig, denn bisher leistet sich die EU ein teures System Datenschutzregime ist im Vergleich zu den USA und China nationaler Alleingänge mit über 170 verschiedenen Waffen- extrem restriktiv. Mit dem Weißbuch zur künstlichen Intelli- systemen, d.h. mehr als sechsmal so viele wie in den USA. genz vom Febr. 2020 hat die Europäische Kommission erst- mals einen Vorschlag zur Regulierung von KI in einer Region Die ursprüngliche Fassung des EVF sah im Art 11, Abs 6 ein Ver- vorgestellt. Wirtschaftsvertreter warnen bereits vor einer bot der Förderung von LAWS vor. Diesen Passus hatte das Euro- Überregulierung der neuen Technologie17. Andere Experten päische Parlament eingebracht, wurde dann aber auf Druck bewerten das Weißbuch als „zu vage, zu früh, zu unverbind- des Europäischen Rates wieder gestrichen. Die Endfassung lich, zu unrealistisch.“18 enthält dann nur noch einen Verweis darauf, „dass die geför- derten Projekte keinesfalls zu Waffensystemen führen dürften, Das Thema KI im militärischen Sektor steht in den EU- die geltendes Völkerrecht verletzen.“ 24 Dazu zählen Landminen Institutionen erst seit kurzem auf der Agenda. Das Europäi- sowie atomare, chemische und biologische Waffen. sche Parlament (EP) verabschiedete im September 2018 eine Resolution, in der ein rechtlich verbindliches Verbot von LAWS gefordert wird.19 Die Europäische Kommission wid- 2.2 EU-Mitgliedsstaaten mete sich erst während der finnischen Ratspräsidentschaft (Juli – Dezember 2019) verstärkt diesem Thema. Mit einem Die EU-Mitgliedsstaaten vertreten im Hinblick auf die Erfor- gemeinsamen Reflektionspapier über Digitalisierung und schung, Entwicklung und den Einsatz von LAWS sehr unter- KI in der Verteidigung versuchten mehrere EU-Staaten die schiedlichen Positionen. Während Frankeich, Großbritannien, Diskussion in Gang bringen.20 Deutschland, Schweden und Italien bereits an (teil-)auto- nomen Systemen arbeiten, sind einige Mitgliedsstaaten In den offiziellen EU-Dokumenten zu künstlicher Intelligenz – noch unentschieden. Irland und Österreich haben sich dem wie dem EU-Weißbuch vom Februar 2020, den Ethik-Leitlinien Lager der 30 Staaten angeschlossen, die ein präventives Ver- für vertrauenswürdige KI (April 2019) oder der KI-Strategie bot von LAWS fordern. Auch die neue finnische Regierung (Dezember 2018)21 wird die militärische KI nicht thematisiert. schloss sich dieser Forderung an. Belgien hat als einziges EU- Erst in der neuen EU-Industriestrategie, die im März 2020 Land LAWS bereits verboten.25 Diese sehr unterschiedlichen veröffentlicht wurde, werden Synergien zwischen zivilen und Positionen und Ausgangssituationen in der militärischen KI- militärischen Technologien untersucht. Entwicklung stellen eine große Herausforderung im Hinblick auf die Interoperabilität der Streitkräfte der EU-Mitglieds- staaten wie auch mit den NATO-Partnern dar.
9 Frankreich veröffentlichte als erstes und einziges EU-Land hat sich bisher auf internationaler Ebene im Rahmen der im September 2019 eine militärische KI-Strategie (L’intel- CCW-Verhandlungen nicht für ein Verbot von LAWS ausge- ligence artificielle au service de la défense). Sie wurde von sprochen. einem Expertenteam um den KI-Star Cédric Villlani im Ver- teidigungsministerium verfasst und gilt als best-practice- In der KI-Strategie der Bundesregierung vom November Beispiel. Das Land sieht in der künstlichen Intelligenz ein 2018 27 kommen Fragen der militärischen Verwendung von wichtiges Instrument seiner Geopolitik und wendet erheb- KI nur am Rande vor. Die Strategie konzentriert sich in erster liche Mittel für die Integration von KI in seine Waffen- Linie auf Forschung, Wirtschaft und Gesellschaft. Außen- systeme auf. Große Rüstungskonzerne wie Thales, Safran, politische und verteidigungspolitische Aspekte der KI fehlen. Nexter und DCNS sind dabei in führender Position. Das fran- Anders als in Frankreich sieht die deutsche Bundesregierung zösische nEUROn-System, eine Tarnkappen-Kampfdrohne, KI offensichtlich nicht als Instrument geopolitischer Macht, zählt derzeit zu den in Entwicklung befindlichen Waffensys- das für den deutschen Einfluss in der Welt wichtig wäre. teme mit dem höchsten Autonomie-Grad.26 Das Bundesverteidigungsministerium (BMV) hat bisher – Auch das ex-EU Mitglied Großbritannien arbeitet seit Jahren zumindest offiziell – keine militärische KI-Strategie vorgelegt intensiv an der Entwicklung von LAWS. Bekanntestes Produkt und sich damit bisher nicht klar zu positioniert. Im Vorder- ist die Überschall-Tarnkappen-Kampfdrohne Taranis, die ab grund steht seit Jahren die Forderung der Bundeswehr nach 2030 einsatzfähig sein soll. Folglich spricht sich das Land einer Bewaffnung von Drohnen für Auslandseinsätze. Ab klar gegen ein präventives Verbot von autonomen Waffen 2021 soll die neue bewaffnungsfähige Drohne „Heron TP“ in aus. Gleichzeitig beteuert die britische Regierung, keine voll- Afghanistan und ab 2024 in Mali stationiert werden. Hierbei ständig autonomen Waffen entwickeln zu wollen und sieht handelt es sich (bisher) um eine von Menschen ferngesteu- die britischen Gesetzeslage vor, dass die Kontrolle über einen erte Drohne, sie könnte aber mittel- bis langfristig zu einem Angriff bei einem Menschen liegen muss. Das Land hat autonomen System ausgebaut werden. Ob die neue Drohne weder eine übergreifende nationale noch eine militärische KI- dann tatsächlich mit Waffen bestückt sein wird, muss der Strategie veröffentlicht. Bundestag für jedes Mandat einzeln entscheiden. Dies kann – laut Koalitionsvertrag – erst nach „ausführlicher völkerrecht- In Deutschland sind LAWS ein problematisches Thema, da es licher, verfassungsrechtlicher und ethischer Würdigung“ er- sehr unterschiedliche, z. T. widersprüchliche Interessen in der folgen. Diese Debatte hat das BMV mit einer mehrwöchigen Debatte gibt: Viele deutsche Entscheidungsträger sehen das Veranstaltungsreihe – der sog. #DrohnenDebatte202028 – im Land nach wie vor als „zivile Macht“, d. h. ein Land das alles Mai 2020 geführt. In seinem Abschlussbericht an den Bun- Militärische ablehnt und internationale Konflikte v. a. mit diplo- destag29 zieht das BMV Bilanz und setzt sich eindringlich für matischen und nicht militärischen Mitteln löst. Folgerichtig die Bewaffnung der Bundeswehr-Drohnen ein. Zugleich leg- hat sich die Bundesregierung in ihren Koalitionsverträgen von te das BMV mit dem Bericht erstmals Grundsätze für den 2013 und 2018 dazu verpflichtet, sich für eine Ächtung auto- Einsatz von deutschen bewaffneten Unmanned Aircraft nomer Waffensysteme einzusetzen. Doch bis heute wurde Systems (UAS) vor, die als Grundlage für die parlamentari- diese Ankündigung nicht realisiert, d. h. die Bundesregierung sche Befassung dienen sollen. Abbildung | Länder, die bewaffnete Drohnen einsetzen Russland, Frankreich Nigeria, Iran, Türkei, Aserbaidschan, Irak Großbritannien Pakistan Israel VAE USA 2000 2002 2004 2006 2008 2010 2012 2014 2016 2018 2020 Quelle: https://www.newamerica.org/international-security/reports/world-drones/
10 Lizenz zum Töten Abbildung | Länder mit bewaffneten UAVs: Entwicklung über Zeit 39 40 37 Besitz* 32 Einsatz 30 28 26 20 15 12 10 9 8 10 5 6 4 4 2 3 1 0 2000 2002 2004 2006 2008 2010 2012 2014 2016 2018 2020 *Besitz bzw. Beschaffung beschlossen Quelle: https://www.newamerica.org/international-security/reports/world-drones/ Auch der Deutsche Bundestag Bundestag hat sich bisher bleibt abzuwarten. Trump fordert darin die Bundesbehörden nicht klar zu militärischer KI positioniert. Die Anträge von auf, die Erforschung und Entwicklung künstlicher Intelligenz Bündnis90/Die Grünen und DIE LINKE auf eine Ächtung von prioritär zu fördern. Kritiker sehen darin reine Symbolpolitik. LAWS wurden sowohl von den Regierungsparteien CDU/CSU Nicht nur komme die Initiative sehr spät – zwei Jahre nach und SPD als auch den Oppositionsparteien FDP und AfD ab- China – sie bleibe auch sehr vage, ohne Zukunftsvision, ohne gelehnt. Dazu lag eine Beschlussempfehlung des Auswärtigen konkreten Ziele und Finanzierungszusagen.34 Den Anspruch Ausschusses vom 29.11.2019 vor. Dies stand im krassen Ge- einer nationalen Strategie zur Sicherung der KI-Technologie- gensatz zu der Empfehlung der Projektgruppe „KI und Staat“ führerschaft sehen sie damit nicht erfüllt. innerhalb der Enquete Kommission des Bundestages für KI, die dazu aufgefordert hatte, LAWs international zu ächten. Mehr darf man von der 2018 vom Kongress eingesetzten 15-köpfigen Nationalen Sicherheitskommission zur künstli- Selbst innerhalb der deutschen Wirtschaft regt sich stellen- chen Intelligenz (National Security Commission on Artificial weise erhebliche Kritik an LAWS. So fordert der Bundesver- Intelligence, NSCAI) erwarten. Sie berät Kongress und Regie- band der deutschen Industrie (BDI), der auch die deutsche rung in Sachen KI und veröffentlicht in regelmäßigen Ab- Rüstungsindustrie unter seinem Dach vereint, einen verbind- ständen Zwischenberichte mit umfangreichen Empfehlungen, lichen Vertrag zur Ächtung autonomer Waffen.30 Dagegen wie jüngst die Second Quarter Recommendations.35 Ihren schaffen einige Rüstungskonzerne Fakten: Rheinmetall baut Abschlussbericht wird sie dem Kongress im März 2021 vor- einen bewaffneten Drohnenpanzer31 – Mission Master – der legen. kurz vor der Serienproduktion steht. Um sich gezielt von autoritären Regierungen abzusetzen, erließ das Weiße Haus im Januar 2020 zehn Prinzipien 2.3 USA zur Regulierung von KI. Diese sollten „die wirtschaftliche und nationale Sicherheit, die Privatsphäre, die bürgerlichen Im Bereich der künstlichen Intelligenz gelten die USA derzeit Freiheiten und andere amerikanische Werte, einschließ- weltweit (noch) als führende Nation. Dafür zeichnet neben lich der Grundsätze der Freiheit und der Menschenrechte, gigantischen Investitionen und Heerscharen von Top-Talenten, Rechtsstaatlichkeit und Achtung des geistigen Eigentums vor allem der weltweit größte und fortschrittlichste Technolo- schützen“. Im Kern geht es dabei um die Entwicklung einer giesektor verantwortlich, angeführt von Konzernen wie Google, „vertrauenswürdiger KI“. Die „Ethik-Leitlinien für vertrauens- Amazon, Apple, Facebook, Microsoft. Der „Global KI-Index würdige KI“ der Europäischen Union vom April 2019 dürften 2019“32 bestätigt die Führungsposition der USA sogar mit dabei als Modell gedient haben. einem deutlichen Vorsprung vor China. Doch der Index prog- nostiziert auch, dass China die USA bei künstlicher Intelligenz KI im US-Militärsektor in nur fünf bis zehn Jahren überholen wird. Vor allem die im Vergleich zu China zu geringen öffentlichen Investitionen so- Die Technologieführerschaft ermöglichte den Vereinigten wie ungünstige strukturelle Faktoren wie Datenschutzregeln Staaten auch den Aufstieg zur militärischen Supermacht. und sonstige Regulierungen seien dafür verantwortlich. Das Land nahm lange unangefochten eine globale Führungs- rolle bei der Erforschung und Entwicklung von Waffensyste- Ob die von Präsident Trump im Februar 2019 gestartete men ein. Ein gigantisches nationales Verteidigungsbudget „Amerikanische KI-Initiative“33 daran etwas ändern kann, von US-$ 732 Mrd. bildet die finanzielle Basis dafür.38
11 Abbildung | Verteidigungsausgaben: Top 15 im Jahr 2019† Angaben in US$bn 700 1. USA 2. China 600 3. Saudi Arabien 4. Russland* 5. Indien 181.1 78.4 61.6 60.5 500 684.6 6. GB 7. Frankreich 8. Japan 9. Deutschland 10. Südkorea 400 300 54.8 52.3 48.6 48.5 39.8 200 * Total defence expenditure, including 11. Brasilien 12. Italien 13. Australien 14. Israel 15. Irak National Guard, Federal Border Service 100 and military pensions; Includes US 27.5 27.1 25.5 22.6 20.5 Foreign Military Assistance 0 Note: US dollar totals are calculated using average market exchange rates for 2019, derived using IMF data. The relative position of countries will vary USA andere Rest not only as a result of actual adjustments in defence-spending levels, but also due to exchange-rate fluctuations between domestic currencies and the Top 15 der US dollar. The use of average exchange rates reduces these fluctuations, but the effect of such movements can be significant in a number of cases. Länder Welt † At current prices and exchange rates Quelle: https://www.iiss.org/blogs/military-balance/2020/02/global-defence-spending KI-Militärstrategien also – zumindest offiziell – nicht die völlige Autonomie in den Waffensystemen. Damit reagierte das Pentagon auch Bereits im November 2012 hatte das Pentagon mit der Direc- auf Proteste aus dem Privatsektor und den Druck der Öffent- tive 3000.09“39 seine erste offizielle Direktive zum Thema lichkeit. Die echte Herausforderung wird jedoch in der Um- Autonomie in Waffensystemen veröffentlicht. Sie war auch setzung dieser Prinzipien bestehen. Und fraglich ist, ob diese weltweit die erste öffentliche Stellungnahme zu LAWS. In Prinzipien auch dann noch aufrechterhalten werden, wenn dieser Direktive sprach sich das Pentagon klar gegen den andere Staaten voll-autonome Waffen einsetzen. Einsatz voll-autonomer Waffensysteme im Militär aus und fordert, dass ein Mensch immer „in the Loop“ sein müsse. 2.4 Volksrepublik CHINA Auch die Obama-Administration definierte KI als Schlüssel- technologie zur Sicherung der militärischen Überlegenheit. Als im Mai 2017 das von DeepMind entwickelte Computer- Ihr National Artificial Intelligence Research and Develop- programm AlphaGo beim asiatischen Strategiespiel Go zum ment Strategic Plan wurde jedoch von der Trump-Regierung dritten Mal gegen den Weltranglisten-Ersten KeJie aus China sofort einkassiert und 2018 durch eine neue KI-Militärstrategie: gewann, war dies der Sputnik-Schock für die chinesische „Harnessing AI to Advance Our Security and Prosperity“40 Staatsführung. In Windeseile wurden die führenden KI- ersetzt. Oberstes Ziel dieser neuen Strategie ist es, die militä- Experten zusammengetrommelt und ein staatlicher KI- rische und technologische Vormachtstellung der USA gegen- Entwicklungsplan (New Generation Artificial Intelligence über seinen strategischen Wettbewerbern sicherzustellen. Development Plan)42 erarbeitet. Der Staatsrat der VR China Das Pentagon kündigt darin an, künstliche Intelligenz künftig verabschiedete diesen im Juli 2017. Im KI-Entwicklungsplan in allen Bereichen des Militärs einsetzen zu wollen, etwa in setzt die Regierung bis 2030 zwei Ziele: a) Aufbau einer KI- Nachrichtendiensten und Überwachungsoperationen oder Industrie mit einem Jahresumsatz von 150 Mrd. US-$ und zur Vorhersage von Wartungsproblemen bei Flugzeugen und b) Etablierung Chinas als global führende KI-Macht. Der Ent- Schiffen. Dafür kündiget es massive Investitionen im AI wicklungsplan ruft auch dazu auf, den Einsatz von künstlicher Bereich an. Intelligenz im Militärsektor zu verstärken. KI gilt als Allheil- mittel um sowohl die Wirtschaft zukunftsfähiger als auch die Das Pentagon fordert darin ethische KI-Prinzipien für den autoritäre Herrschaft effizienter zu machen. Militäreinsatz auf nationaler und internationaler Ebene. Diese wurden in den Folgemonaten vom sog. „Defense Innovation Das bestehende KI-Ökosystem bietet gute Voraussetzungen, Board“ erarbeitet, einem erlauchten Kreis namhafter Vertreter um die für 2030 gesteckten Ziele zu erreichen: Der chinesi- aus Wirtschaft (Google, Microsoft, Facebook) und Forschung sche Staat tätigt riesige Investitionen sowohl in in- wie aus- (California & Massachusetts Institute of Technologie, Carnegie ländische KI-Unternehmen. Er setzt bei der KI-Entwicklung Mellon und andere Universitäten) unter dem Vorsitz von stark auf die (Privat-)wirtschaft und dabei vor allem auf die Eric Schmidt, ex-CEO von Google. Im Februar 2020 wurden sog. BAT-Unternehmen, denen er jeweils spezifische Sektoren die fünf KI-Prinzipien der Öffentlichkeit vorgestellt: „being zugewiesen hat: Baidu (autonomes Fahren), Alibaba (Smart responsible, equitable, traceable, reliable, and governable“, Cities), Tencent (Gesundheitssektor) sowie iFlytek (Sprach- d. h. der Mensch soll für Entwicklung, Verbreitung, Einsatz und erkennung). Das derzeit wertvollste KI-Startup der Welt ist Ergebnisse der KI verantwortlich bleiben. Ferner sollen alle chinesisch: Sensetime, ein Hersteller von Gesichtserken- KI-Systeme steuerbar bleiben.41 Das Ziel des Pentagons ist nungstechnologie. China verfügt zudem über den weltweit
12 Lizenz zum Töten größten Datenpool – geriert von staatlichen Überwachungs- umfassende Modernisierung der chinesischen Befreiungs- systemen und rund 870 Millionen Internetnutzern. Gleich- armee vorgestellt. Ferner wird aufgezeigt, wie die chinesische zeitig ist die Gesetzgebung bzgl. Datenschutz im Land relativ Armee, Luftwaffe und Marine künstliche Intelligenz in ihre lax und ermöglichte Chinas Erfolge in KI und Data Mining. So Waffensysteme, Befehlsnetzwerke und Kommunikation inte- ist die Zahl chinesischer Veröffentlichungen und Patentan- grieren will.47 Ziel ist es, die Streitkräfte bis 2050 in eine „Welt- meldungen zu KI in den letzten Jahren in beeindruckendem klasse“-Armee zu verwandeln. Im Gegensatz zu den USA hat Maße angestiegen. China bisher keine ethischen Leitlinien zum Einsatz von KI in Waffensystemen erlassen. Doch es gibt auch Schwächen im chinesischen KI-Öko- system: Die KI-Grundlagenforschung kommt überwiegend Innerhalb der Akademie der Militärwissenschaften (AMS) der noch aus den USA. Dem Land mangelt es an einheimischen Volksbefreiungsarmee wurde ein neues Forschungszentrum KI-Experten: Während in China ca. 18.000 KI-Entwickler arbei- für künstliche Intelligenz mit mehreren Hundert Militärwissen- ten, sind es in den USA und EU über fünfmal mehr.43 Es be- schaftlern und Strategen eingerichtet. Es kann ohne größere stehen Schwächen bei der Halbleiter-Herstellung und v.a. bei Beschränkungen forschen und entwickeln.48 Anders als in der Entwicklung von KI-Chips. Auch ist China durchaus noch westlichen Staaten kann das autoritäre Regime auch gewagte vom Ausland abhängig: Nicht wenige der chinesischen KI- Rüstungsprogramme durchziehen. Kein Parlament stellt kriti- Erfolge wurden durch ausländisches Kapital und die Koopera- sche Fragen, die Befindlichkeiten von Bürgern spielen ohne- tion mit multinationalen Forschungsteams und Unternehmen hin keine Rolle. Präsident Xi als Oberbefehlshaber und Chef ermöglicht. So sind die beiden dominierenden Deep Learning der Militärkommission hat immer das letzte Wort. Frameworks auch in China Tensorflow (Google) und Pytorch (Facebook). Zudem zwingt China ausländische Unterneh- Einer der wichtigsten Grundpfeiler ist die sog. „militärisch- men zu Technologietransfer und betreibt bekanntermaßen zivile Integration“(MZI), die 2015 zur nationalen Strategie er- Industriespionage in großem Stile. klärt wurde. Damit wird das Ziel verfolgt, den militärischen und zivilen Sektor besser zu vernetzten, um gemeinsam an Pekinger KI-Prinzipien der Entwicklung sog. dual-use-Technologien zu arbeiten. Durch enge Kooperation der Volksbefreiungsarmee (PLA) mit Angesicht seiner Wirtschaftskraft und seines technologischen privaten Unternehmen und akademischen Forschungsein- Fortschrittes möchte China auch bei der Ausgestaltung der richtungen gelingt es China, sein ökonomisches Wachstum globalen governance der künstlichen Intelligenz stärker mit- und seine militärische Modernisierung gleichzeitig zu beför- reden – nicht nur im Hinblick auf die technischen Standards, dern und seinen Rückstand im Verteidigungsbereich rasch sondern auch bzgl. rechtlicher und ethischer Normen. Frühere aufzuholen. Dazu gehört auch die verstärkte Rekrutierung Technologien und das Internet waren weitgehend von den USA ziviler Wissenschaftler für die militärische Forschung.49 bestimmt worden. Anders als in westlichen Staaten kann das autoritäre chinesi- sche Regime enormen Druck auf private Unternehmen aus- Folgerichtig veröffentlichte die Peking Akademie für Künst- üben und sie zur Zusammenarbeit zwingen. Dabei muss sie liche Intelligenz Ende Mai 2019 die „Pekinger KI-Prinzi- kaum mit Widerstand aus der Belegschaft rechnen. Mitarbeiter- pien“ 44. An ihrer Erarbeitung waren die bedeutendsten KI- proteste wie in US-Technologiekonzernen sind in China un- Organisationen und Unternehmen Chinas beteiligt, wie z.B. denkbar. die drei großen Tech-Unternehmen Baidu, Alibaba und Tencent sowie die Chinesische Akademie der Wissenschaften. Auf den 2.5 Russische Föderation ersten Blick haben die Pekinger KI-Prinzipien eine auffallende Ähnlichkeit mit KI-Prinzipen westlicher Regierungen und „Künstliche Intelligenz ist die Zukunft, nicht nur für Russland, Unternehmen45. Auf den zweiten Blick wird jedoch deutlich, sondern für die gesamte Menschheit. Sie bringt kolossale dass das Individuum zugunsten von Staat und Gemeinschaft Chancen mit sich, aber auch Bedrohungen, die schwer vorher- stark in den Hintergrund rückt. zusagen sind. Wer die Führung bei der KI übernimmt, wird die Welt regieren“.50 Mit Blick auf die politische Praxis wirken die Pekinger KI-Prin- zipien zynisch: die Staatsregierung setzt bereits in über 70 Mit diesem berühmt gewordenen Spruch positionierte der Städten KI-gestützte Überwachungssysteme mit Gesichts- russische Präsident Wladimir Putin 2017 sein Land im techno- erkennungs-Software als Instrument zur systematischen logischen Wettrennen um künstliche Intelligenz. Allerdings Überwachung seiner Bürger (social credit system), zur Unter- befand sich Russland zu dieser Zeit in einer sehr schlechten drückung von Protestbewegungen sowie zu Verbrechen Ausgangsposition: ein schwacher privater Tech-Sektors mit gegen die Menschlichkeit an der muslimischen Minderheit in nur wenigen KI-Start-ups51, das Fehlen einer Innovations- Xinjiang und darüber hinaus ein. kultur, ein relativ niedriges Budget für KI-Forschung und Ent- wicklung52, ein magerer Verteidigungshaushalt, der Exodus KI-Militärstrategien gut ausgebildeter Fachkräften sowie die westlichen Sank- tionen auch in zentralen Bereichen des Verteidigungssektors. Im Juli 2019 verabschiedete China sein zehntes Weißbuch Damit war Russland im globalen KI-Wettrennen weit abge- zur Verteidigungspolitik.46 Ausführlich werden darin die neuen schlagen und es schien unwahrscheinlich, dass das Land außen- und verteidigungspolitischen Grundsätze sowie die jemals mit China und den USA würde konkurrieren können.
13 Und auch wenn Russland in naher Zukunft wohl nicht die Welt wichtigste Ziele werden genannt: Wohlstandsgewinn, höhere der KI anführen wird53, sollten seine potentiellen Fähigkeiten Lebensqualität, nationale Sicherheit, Konkurrenzfähigkeit der nicht unterschätzt werden, denn das Land unternimmt gro- russischen Wirtschaft und eine internationale Führungsrolle ße Anstrengungen, um seinen Rückstand aufzuholen.54 Vor bei künstlicher Intelligenz. Die Rolle des Privatsektors bei der allemdie in den MINT-Fächern gut ausgebildeten Arbeitskräfte nationalen KI-Entwicklung wird nicht definiert. können dabei helfen, das Land auch im KI-Sektor wieder in die Reihen der High-Tech-Trendsetzer zurückzubringen. Ethik-Kodex für den Umgang mit künstlicher Intelligenz gefordert Der Staat als Enabler In einer aufsehenerregenden Rede anlässlich der „Artificial Anders als in den USA und Europa sind in Russland nicht Intelligence Journey-Konferenz“ in Moskau forderte der russi- private Tech-Konzerne führend bei der KI-Entwicklung, viel- sche Präsident Wladimir Putin Anfang November 2019 neue mehr stehen staatliche und staatsnahe Unternehmen im Regeln zur Entwicklung künstlicher Intelligenz. Die Fachwelt Mittelpunkt. Und noch stärker als in China gibt die russische und Unternehmen sollten moralische Regeln für die Inter- Regierung den Kurs vor. Ein Großteil der militärischen KI-For- aktion zwischen Mensch und künstlicher Intelligenz auf- schung findet im russischen Verteidigungsministerium statt, stellen. „Technologie dürfe nicht um der Technologie willen das über eine weiteichende technische, akademische und erfunden werden“.56 industrielle Infrastruktur sowie enorme finanzielle, personelle und materielle Ressourcen verfügt. Damit ist der russische KI im Militärsektor der Russischen Föderation KI-Ansatz primär ein Top-Down-Modell. Doch die russische Regierung ist zunehmend darum bemüht, den wachsenden Der russische Verteidigungssektor bereitet sich seit Jahren privaten High-Tech-Sektor mit der expansiven militärisch- auf einen langwierigen High-Tech-Wettbewerb mit seinen akademischen Infrastruktur zu vernetzten. wichtigsten Gegnern – Vereinigte Staaten und NATO – vor. Be- reits 2012 hat das russische Verteidigungsministerium mit der Russische KI-Strategie Erforschung und Entwicklung unbemannter und roboter- gestützter Luft-, Boden- und Seesysteme begonnen. Inzwi- Erstmals kündigte Präsident Wladimir Putin in seiner Rede schen arbeitet es verstärkt daran, Elemente künstlicher In- zur Lage der Nation im Februar 2019 ein großangelegtes telligenz in die Waffensysteme zu integrieren. Gerade für die Programm zur künstlichen Intelligenz an, mit dem er Russ- hybride Kriegsführung Russlands spielt KI eine zentrale Rolle. land bis Mitte der 2020er Jahre zu einem Weltmarktführer Die meisten militärischen KI-Projekte werden unter der Schirm- machen will. Im Oktober 2019 verabschiedete er per Dekret herrschaft des russischen Verteidigungsministeriums (MOD) die lang erwartete Nationale Strategie zur Entwicklung der und seiner angeschlossenen Institute, Forschungszentren und künstlichen Intelligenz für den Zeitraum bis 2030 55. Als Industriekonglomerate durchgeführt. 3. Die ethische Verantwortung von Unternehmen — Das Beispiel der US-Technologiekonzerne Mit zunehmender Verbreitung der künstlichen Intelligenz Google kommt KI-Forschern, Entwicklern und IT-Unternehmen eine wachsende ethische Verantwortung bzgl. des potentiellen Bei Google kam es wiederholt zu massiven Protesten von tau- Einsatzes und der gesellschaftlichen Auswirkungen der von senden von Mitarbeitern und sogar Kündigungen. Zuerst im ihnen entwickelten Technologie zu. In ganz besonderem April 2018 im Zusammenhang mit dem umstrittenen MAVEN- Maße gilt dies für den Einsatz von künstlicher Intelligenz im Projekt des Verteidigungsministeriums, in dem Mitarbeiter Sicherheits- und Verteidigungssektor, dem wohl sensibelsten den Einstieg in die Entwicklung autonomer Waffensysteme Bereich der KI überhaupt.57 befürchteten. Seit 2017 hatte Google KI geliefert, mit der das Videomaterial, das von US-Überwachungsdrohnen aufge- Bei den Mitarbeitern der großen US-Technologieunterneh- zeichnet wurde, effizient nach militärisch relevanten Objekten men wachsen die Bedenken, dass die neue Technologie durchsucht werden kann. Erneut kam es im Oktober 2018, statt zum Wohle der Menschheit zur Verletzung grundlegen- anlässlich des ebenso umstrittenen JEDI-Projektes, einem der Menschenrechte, zu Eingriffen in die Privatsphäre oder milliardenschweren Auftrag des Pentagon für den Aufbau sogar zum Töten von Menschen eingesetzt werden könnte. einer US-Militär-Cloud, zu massiven Mitarbeiterprotesten. Ihre internen Proteste werden lauter und insistenter und nicht wenige von ihnen verweigern die Mitarbeit an militä- Die Mitarbeiter forderten in offenen Briefen an die Unterneh- risch genutzten Technologien. mensführung58 ein klares Bekenntnis des Konzerns, niemals Technologie zu entwickeln, die für Kriegszwecke eingesetzt
14 Lizenz zum Töten werden könnte. Der Druck der Mitarbeiter, unterstützt von Vorgestellt wurde der offene Brief zur Eröffnung der „Int. Joint Politikern und Menschenrechtsorganisationen, zeigte Wirkung. Conference on AI“ (IJCAI), einer der weltweit führenden KI- Google zog sich aus den Projekten zurück und verzichtete Konferenzen. Inzwischen wurde dieser Brief von über 4.500 damit auf milliardenschwere Aufträge aus dem Pentagon. Forschern weltweit und mehr als 26.000 weiteren Perso- nen unterzeichnet. Zwei Jahre später während der IJCAI im Bereits nach den MAVEN-Protesten veröffentlichte Google August 2017 richteten Elon Musk und Mustafa Suleyman im Juni 2018 „Sieben ethische KI-Grundsätze“59. Zu den (Deep Mind) einen offenen Brief an die Vereinten Nationen64, Grundsätzen gehört beispielsweise, dass die Technologie in dem sie ein sofortiges Verbot von LAWS und ihre Aufnah- stets einen sozialen Nutzen haben müsse, etwa in den Berei- me in die Liste der verbotenen Waffen des CCW forderte. Der chen Gesundheitsversorgung, Sicherheit, Energie, Verkehr etc. Brief wurde von 116 Experten aus 26 Ländern unterschrieben. Außerdem dürfe KI keine Vorurteile hinsichtlich Geschlecht, Rasse oder Alter widerspiegeln beziehungsweise verstärken. Die Grundsätze weisen auch vier Bereiche aus, in denen Das ambivalente Verhältnis des Silicon Valley Google auf den Einsatz von künstlicher Intelligenz verzichten zum Pentagon wird. Darunter z.B. Technologien, deren Zweck gegen allge- mein anerkannte Grundsätze des Völkerrechts und der Men- Wie o. g. Beispiele zeigen, ist das Verhältnis zwischen dem schenrechte verstößt. Google verpflichtet sich ferner, keine US-Technologiesektor und dem amerikanischen Verteidi- künstliche Intelligenz für den Einsatz in Waffen zu liefern. In gungsministerium schon seit Jahren äußerst ambivalent.65 der nationalen Sicherheitsgemeinschaft löste diese Entschei- Auf der einen Seite stehen Unternehmen wie Amazon, Intel, dung der Unternehmensführung eine Schockwelle aus. Man IBM, Microsoft und Oracle, die bedenkenlos ihre Technologie sah es als Verrat an, dass Google es ablehnte, das Heimatland in den Dienst des Militärs und der Sicherheitskräfte stellen gegen China zu verteidigen. und gezielt um Kooperationen mit dem Pentagon buhlen.66 Unternehmen wie Google und Apple halten hingegen eine vor- sichtige Distanz zum Pentagon, weil sie Reputationsschäden Microsoft bei Kunden und Mitarbeitern fürchten, die zunehmend poli- tische Glaubwürdigkeit einfordern. Im politisch mehrheitlich Auch bei Microsoft kam es zu Mitarbeiterprotesten. Der linksstehenden Silicon Valley müssen sie genau darauf achten, Konzern setzte sich im Oktober 2018 im Bieterrennen um wie die Zusammenarbeit mit dem Militär oder der Verteidi- das JEDI-Projekt durch. Ähnlich wie ihre Kollegen bei Google gungsindustrie interpretiert werden könnte. riefen auch Mitarbeiter bei Microsoft in einem „offenen Brief“60 dazu auf, sich nicht am JEDI-Projekt des Pentagon Das Pentagon, dessen Image vor allem seit den Enthüllungen zu beteiligen und forderten ebenfalls ethische Grundprinzi- von Edward Snowden im Jahre 2013 schwer ramponiert ist, pien des Konzerns. Doch die Proteste blieben wirkungslos. ist sehr um bessere Beziehungen zum Silicon Valley bemüht. Präsident Brad Smith rückte nicht von der Kooperation mit Es tut dies auch aus eigenem Interesse, denn militärische dem Pentagon ab. Nur ein Jahr später wiederholten die Mit- Schlüsseltechnologien entstehen heute nicht mehr in den arbeiter ihre Forderungen. Anlass war dieses Mal ein Vertrag Werkstätten des Militärs, sondern in den großen Tech-Kon- Microsofts mit dem Pentagon im Wert von $ 480 Mio. über zernen. Und die Furcht des Pentagon, von China militär-tech- die Lieferung von 100.000 HoloLens2-Brillen an das US- nologisch überholt zu werden, ist groß. Militär. In einen Brief an CEO Satya Nadella und Präsident Brad Smith forderten sie die Zusammenarbeit mit dem Militär Gleichzeitig sieht das Pentagon das China-Engagement man- und die Entwicklung jeglicher Waffentechnologie zu beenden cher großer Tech-Unternehmen kritisch: Als Google im Früh- und eigene KI Ethik-Leitlinien zu verabschieden. Microsofts jahr 2018 mit dem „Google AI China Center“ in Peking ein KI- Topmanager warnten jedoch davor, sich aus neuen Techno- Forschungszentrum eröffnete, brachte ihm das den Vorwurf logien wie Augmented Reality oder künstlicher Intelligenz der unpatriotischen Haltung und sogar des Landesverrates im Militärkontext zurückzuziehen. Aber auch Microsoft ent- u. a. durch den ehemalige stellvertretende Verteidigungs- wickelte eigene Leitlinien: sechs Grundsätze für KI und Ethik, minister Robert Work67 und den Milliardär Peter Thiel ein. vorgestellt von Präsidenten Brad Smith62. Während Google sich weigere, mit dem Pentagon zusammen- zuarbeiten, stelle es gleichzeitig seine KI-Technologie China zur Verfügung und schade damit den Vereinigen Staaten. TESLA Derselbe Vorwurf müsste auch Microsoft treffen, denn der Konzern kooperiert im Bereich der Überwachungstechnolo- Eine ganz andere Unternehmenspolitik verfolgt TESLA. Dessen gie mit der National University of Defense Technology (NUDT), Gründer Elon Musk hat sich zu einem der prominentesten die vom chinesischen Militär finanziert wird. Gegner von LAWS entwickelt. Er lehnt eine militärische Nut- zung von KI strikt ab und verweigert jegliche Kooperation mit dem Pentagon. Bereits 2015 hatten er und führende KI und Unternehmensinitiativen für einen Robotiks-Forscher (darunter Stephen Hawking, Steve Wozniak verantwortungsvollen Umgang mit KI (Apple-co-Founder) und Demise Hassabis (CEO of Deep Mind)) in einen offenen Brief63 ein präventives LAWS-Verbot gefordert. In einer gemeinsamen Initiative gründeten Amazon, Apple, Facebook, Google, Deepmind, IBM und Microsoft Ende 2016
Sie können auch lesen