EU-INITIATIVEN GEGEN DESINFORMATION - JKU ePUB
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
Eingereicht von Eva Pumpernig Angefertigt am Institut für EU-INITIATIVEN Europarecht GEGEN Beurteiler Univ.-Prof. Dr. Franz DESINFORMATION Leidenmühler Linz, September 2021 Diplomarbeit zur Erlangung des akademischen Grades Magistra der Rechtswissenschaften im Diplomstudium der Rechtswissenschaften JOHANNES KEPLER UNIVERSITÄT LINZ Altenberger Straße 69 4040 Linz, Österreich jku.at
EIDESSTATTLICHE ERKÄRUNG Ich erkläre an Eides statt, dass ich die vorliegende Diplomarbeit selbstständig und ohne fremde Hilfe verfasst, andere als die angegebenen Quellen und Hilfsmittel nicht benutzt bzw. die wörtlich oder sinngemäß entnommenen Stellen als solche kenntlich gemacht habe. Die vorliegende Diplomarbeit ist mit dem elektronisch übermittelten Textdokument identisch. Wien, 17.09.2021 ------------------------------------ Ort, Datum ------------------------------------- Unterschrift 2
Inhalt I. EINLEITUNG .......................................................................................................................................... 4 II. WAS IST DESINFORMATION? ............................................................................................................ 5 III. DIE EAST STRATCOM TASK FORCE ................................................................................................. 7 IV. DIE DATENSCHUTZ-GRUNDVERORDNUNG ...............................................................................11 A. ALLGEMEINE DATENSCHUTZRECHTLICHE ASPEKTE IM KAMPF GEGEN DESINFORMATION .........................11 1. Erhebung personenbezogener Daten ..........................................................................................11 2. Profiling .........................................................................................................................................13 3. Microtargeting ...............................................................................................................................15 B. DATENSCHUTZ UND DESINFORMATION IM KONTEXT VON WAHLEN .........................................................17 V. DAS „EUROPÄISCHE KONZEPT“ GEGEN DESINFORMATION IM INTERNET ............................19 A. HOCHRANGIGE EXPERT*INNENGRUPPE UND ÖFFENTLICHE KONSULTATION ............................................19 B. ECKPUNKTE DES „EUROPÄISCHEN KONZEPTS“ .....................................................................................20 VI. NEUE TECHNOLOGIEN UND DESINFORMATION .......................................................................23 A. HERAUSFORDERUNGEN ......................................................................................................................23 B. NEUER RECHTSRAHMEN FÜR KÜNSTLICHE INTELLIGENZ........................................................................24 1. Verbot von KI-Anwendungen mit unannehmbarem Risiko (Artikel 5) ..........................................25 2. Transparenzpflichten für KI-Anwendungen mit geringem Risiko (Artikel 52) ..............................27 VII. DER AKTIONSPLAN GEGEN DESINFORMATION .......................................................................29 A. FRÜHWARNSYSTEM GEGEN DESINFORMATION......................................................................................29 VIII. VERHALTENSKODEX UND SELBSTREGULIERUNG .................................................................31 A. ENTSTEHUNG UND INHALT ...................................................................................................................31 B. ERSTER FORTSCHRITTSBERICHT .........................................................................................................33 C. KRITIK UND HERAUSFORDERUNGEN .....................................................................................................35 D. WEITERENTWICKLUNG DES VERHALTENSKODEX ...................................................................................37 1. Neue Leitlinien der Kommission ...................................................................................................38 2. Von Selbstregulierung zu Koregulierung ......................................................................................39 IX. INITIATIVEN GEGEN DESINFORMATION IM ZUSAMMENHANG MIT COVID-19 ....................42 X. FAZIT ...................................................................................................................................................45 XI. LITERATURVERZEICHNIS .................................................................................................................47 3
I. EINLEITUNG Spätestens seit der Präsidentschaftswahl 2016 in den USA diskutiert eine breite Öffentlichkeit über Begriffe wie „Fake News“ und „alternative Fakten“. Dabei ist Desinformation keineswegs ein neues Phänomen: Schon Julius Cäsar manipulierte in seinen Kriegsberichten die Opferzahlen auf eigener und gegnerischer Seite, um seinen Handlungen Legitimität zu verleihen.1 Neu sind aber die Möglichkeiten, die im digitalen Zeitalter zur Verfügung stehen, um Desinformation zu verbreiten und zu konsumieren. Online-Medien, -Plattformen und Messenger-Dienste erreichen in Echtzeit Milliarden Menschen auf der ganzen Welt. Durch den technologischen Wandel hat sich auch das Problem der Desinformation zugespitzt: Heute sind 85 % der Europäer*innen der Ansicht, dass Desinformation ein Problem in ihrem Land darstellt, und 83 % sehen darin ein Problem für die Demokratie im Allgemeinen.2 Desinformationskampagnen können die Verwundbarkeit einer Gesellschaft ausnutzen und als Vehikel für hybride Bedrohungen dienen.3 Nicht zuletzt die COVID-19- Pandemie hat gezeigt, wie oft und wie umfangreich wir mit Desinformation konfrontiert sind. Gesellschaft und Politik stehen also vor einer großen Herausforderung, die auch von der Europäischen Union erkannt wurde. Die folgende Arbeit soll zeigen, wie die Europäische Union seit dem Jahr 2015 auf unterschiedliche Art und Weise versucht, sich dieser Thematik anzunähern. Dabei soll deutlich werden, dass in diesem dynamischen Umfeld multidisziplinäre Lösungsansätze, die Einbindung verschiedenster Akteur*innen und unterschiedliche Regelungsinstrumente erforderlich sind. Da sich das technologische Umfeld ständig verändert und bestehende Initiativen laufend angepasst werden müssen, kann diese Arbeit nur eine Momentaufnahme darstellen. Vorschläge für Regelungen wie den Digital Service Act oder den Rechtsrahmen für Künstliche Intelligenz werden aber bereits berücksichtigt. 1 Vgl. Berger, Mortui vivos docent: Todesdarstellungen in Caesars Bericht über den Gallischen Krieg und ihre Funktion, Diplomarbeit am Institut für Alte Geschichte an der Karl-Franzens-Universität Graz (2017) 95 f. 2 Vgl. Europäische Kommission, Flash Eurobarometer 464, Briefing Note, Fake news and disinformation online, 2 < https://europa.eu/eurobarometer/api/deliverable/download/file?deliverableId=65674> (01.08.2021) 3 Vgl. Europäische Kommission, Gemeinsame Mitteilung an das Europäische Parlament und den Rat. Gmeinemsamer Rahmen für die Abwehr hybrider Bedrohungen – eine Antwort der Europäischen Union, JOIN (2016) 18 endg, 2 4
II. WAS IST DESINFORMATION? Dieser Arbeit liegt die Definition der Europäischen Kommission aus dem „Europäischen Konzept“ gegen Desinformation zugrunde: Unter Desinformation versteht man „…nachweislich falsche oder irreführende Informationen, die mit dem Ziel des wirtschaftlichen Gewinns oder der vorsätzlichen Täuschung der Öffentlichkeit konzipiert, vorgelegt und verbreitet werden und öffentlichen Schaden anrichten können. Unter „öffentlichem Schaden“ sind Bedrohungen für die demokratischen politischen Prozesse und die politische Entscheidungsfindung sowie für öffentliche Güter wie den Schutz der Gesundheit der EU-Bürgerinnen und -Bürger, der Umwelt und der Sicherheit zu verstehen. Irrtümer bei der Berichterstattung, Satire und Parodien oder eindeutig gekennzeichnete parteiliche Nachrichten oder Kommentare sind keine Desinformation.“4 Wichtig ist die Abgrenzung zwischen Desinformation und Falschinformation: Besteht keine Absicht, die Öffentlichkeit zu täuschen oder zu schädigen und besteht auch keine Gewinnerzielungsabsicht, spricht man von „Falschinformation“.5 Entscheidend ist also, ob falsche oder irreführende Informationen vorsätzlich verbreitet werden. Senden sich beispielsweise Freunde oder Familienmitglieder gutgläubig nachweislich falsche Informationen über die Nebenwirkungen von Impfstoffen zu oder unterläuft Journalist*innen bei der Recherche oder beim Verfassen eines Textes ein Fehler, gilt dies nicht als Desinformation. Was die Abgrenzung von Desinformation und Propaganda betrifft, so besteht der Unterschied darin, dass sich Wahrheit und Propaganda nicht zwangsläufig ausschließen müssen: Propaganda ist eine Form „strategischer Kommunikation, der es um die (in der Regel manipulative und oft verschleierte) systematische Einwirkung auf öffentliche Überzeugungen geht.“6 Natürlich ist es möglich, dass Desinformation zu Propagandazwecken eingesetzt wird, es ist aber keine Voraussetzung. 4 Vgl. Europäische Kommission, Mitteilung der Kommission an das Europäische Parlament, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen, Bekämpfung von Desinformation im Internet: ein europäisches Konzept, KOM (2018) 236 endg, 4 5 Vgl. Europäische Kommission, Gemeinsame Mitteilung an das Europäische Parlament,den Europäischen Rat, den Rat, den Europäischen Wirtschafts- Und Sozialausschuss und den Ausschuss der Regionen. Bekämpfung von Desinformation im Zusammenhang mit COVID-19 – Fakten statt Fiktion. JOIN (2020) 8 endg vom 10.06.2020, 4 6 Vgl. Zywietz (et al.), Einführung: Propaganda, Populismus und populistische Propaganda, in Sachs-Hombach, Zywietz (Hrsg), Fake News, Hashtags & Social Bots (2018) 1 (2) 5
Die Begriffe „Desinformation“ und „Fake News“ werden oft synonym verwendet. Je nach Definition beschreiben sie das gleiche Phänomen oder umfassen nur bestimmte Teilbereiche des jeweils anderen Begriffs: Beispielsweise können mit „Fake News“ nur Nachrichtenartikel und nicht Informationen im Allgemeinen gemeint sein.7 Anderen Definitionen zufolge umfassen „Fake News“ auch Satire und Parodien.8 Dazu kommt noch, dass im alltäglichen Sprachgebrauch oft die Unterscheidung zwischen Falsch- und Desinformation verschwimmt oder beide Phänomene unter dem Begriff „Fake News“ zusammengefasst werden. Die Europäische Union spricht fast ausschließlich von „Desinformation“ und legt ihren Initiativen eine eigene Begriffsdefinition zugrunde. Um Unklarheiten zu vermeiden und um die Terminologie der Europäischen Union zu übernehmen, wird daher in dieser Arbeit auf die Verwendung des Begriffs „Fake News“ verzichtet. 7 Vgl. Alcott et al, Social Media and Fake News in the 2016 Election, Journal of Economic Perspectives 2017 Vol. 31 No. 2, (211) 213 8 Vgl. Tandoc et al, Defining „Fake News“: A typology of scholarly definitions, 5f < https://www.researchgate.net/profile/Rich- Ling/publication/319383049_Defining_Fake_News_A_typology_of_scholarly_definitions/links/5d021939299bf13a3851 2164/Defining-Fake-News-A-typology-of-scholarly-definitions.pdf> (01.08.2021) 6
III. DIE EAST STRATCOM TASK FORCE Im Kontext der Annexion der Krim-Halbinsel im Jahr 2014 kam es zu einem starken Anstieg russischer Propaganda.9 Dazu zählten auch gezielte Desinformationskampagnen, die sich im Laufe des Jahres 2015 nicht nur verstärkt gegen die Ukraine, sondern auch gegen die Europäische Union richteten.10 Um diesen Desinformationskampagnen entgegen zu wirken, regte der Europäische Rat nach seiner Tagung im März 2015 an, ein Kommunikationsteam einzusetzen. 11 Noch im selben Jahr wurde die East Stratcom Task Force ins Leben gerufen. Am 1. September 2015 nahm die East Stratcom Task Force (Deutsch: Task Force für strategische Kommunikation Ost), die dem Europäischen Auswärtigen Dienst (EAD) untersteht, ihre Arbeit auf.12 Sie betreibt eine Website,13 die eine Datenbank mit aktuell etwa 10.000 Beispielen für Desinformation sowie relevante Publikationen und Informationen enthält. Alle angeführten Beispiele werden einer Faktenprüfung unterzogen und enthalten weiterführende Links. Auch die ursprünglichen Quellen der Desinformation sind nachvollziehbar. Die Website enthält grafische Darstellungen ganzer Desinformationskampagnen zu bestimmten Themen über einen längeren Zeitraum hinweg, sodass die Entwicklung einzelner Narrative nachverfolgt werden kann.14 Zusätzlich wird ein wöchentlicher Newsletter (der Disinformation Review) in verschiedenen Sprachen (darunter auch Russisch) herausgegeben. Seit 2019 beschränkt sich die Arbeit nicht mehr ausschließlich auf kremlfreundliche Desinformation, sondern bezieht auch den Westbalkan und die Staaten des Nahen Ostens, Nordafrikas und der Golfregion mit ein. 9 Vgl. Human Rights Council, Report of the United Nations High Commissioner for Human Rights on the situation of human rights in Ukraine UN Doc. A/HRC/27/75, 19. September 2014, Ziff. 72. 10 Vgl. Graphica, Secondary Infection, 16 (26.02.2021) 11 Vgl. Europäischer Rat, Tagung des Europäischen Rates (19. und 20. März 2015) – Schlussfolgerungen, EUCO 11/15, III Ziff. 7. 12 Europäisches Parlament, Anfrage zur schriftlichen Beantwortung E-002156-16 an die Kommission, https://www.europarl.europa.eu/doceo/document/E-8-2016-002156_DE.html (05.08.2021) 13 https://euvsdisinfo.eu/ (26.02.2021) 14 Vgl. EAD, Timeline: How Russia Built Two Major Disinformation Campaigns, (28.02.2021). 7
Für diese Regionen wurden eigene Task Forces (Task Force für strategische Kommunikation Westbalkan und Task Force für strategische Kommunikation Süd) eingerichtet.15 Abgesehen von der Website, die sich gezielt mit Desinformation auseinandersetzt, definiert der EAD die Tätigkeitsbereiche der East Stratcom Task Force breit und nennt als ihre Aufgaben unter anderem die Entwicklung von Kommunikationsprodukten und – kampagnen.16 Diese sollen in den Ländern der Östlichen Partnerschaft (Armenien, Aserbaidschan, Weißrussland, Georgien, Moldawien und die Ukraine) eingesetzt werden, um EU-Politiken besser zu erklären.17 Darüber hinaus soll die Medienlandschaft (insbesondere die Medienfreiheit und unabhängige Medien) in dieser Region gestärkt werden.18 Wie dies genau geschieht und welche Rolle die East Stratcom Task Force bei der Kooperation mit Medien in Ländern der Östlichen Partnerschaft spielt, erschließt sich aus den öffentlich zugänglichen Unterlagen nicht. Die Abteilung verfügte im Jahr 2020 über ein Budget von 4 Mio. €, das für die Sensibilisierung für Desinformationskampagnen und deren Überwachung eingesetzt wurde, unter anderem durch Analysen, Publikationen und Kommunikationskampagnen. 19 Die (finanzielle) Unterstützung von Medien in Drittstaaten wird nicht erwähnt und erfolgt gemäß einer parlamentarischen Anfrage im deutschen Bundestag über verschiedene Finanzierungsinstrumente und Budgetlinien des EAD, der Europäischen Kommission und der Mitgliedsstaaten.20 So wurden etwa im Rahmen des Europäischen Nachbarschaftsinstruments21 durch die Initiative „EU4Independent Media“ 11 Mio. € in die Aufrechterhaltung der Pluralität und Qualität unabhängiger Medien und in die Verbesserung des Angebots an faktengestützten Inhalten investiert, wobei kommerzielle Medienunternehmen neben Schulungen auch finanzielle Unterstützung erhielten.22 15 Vgl. Empfehlung (EU) 2019/2115 des Europäischen Parlaments vom 13. März 2019 an den Rat und die Vizepräsidentin der Kommission und Hohe Vertreterin der Union für Außen- und Sicherheitspolitik zu der Bestandsaufnahme der Folgemaßnahmen, die zwei Jahre nach dem Bericht des EP über das Thema „Strategische Kommunikation der EU, um gegen sie gerichteter Propaganda von Dritten entgegenzuwirken“ durch den EAD ergriffen wurden, lit. w, ABl 2021/C 23/24. 16 Vgl. EAD, „Questions and Answers about the East StratCom Task Force“ (19.03.2021) 17 Vgl. Ebd (19.03.2021) 18 Vgl. Ebd (19.03.2021) 19 Vgl. Borell, Answer given by High Representative/Vice-President Borrell on behalf of the European Commission, E-005212/2020(ASW) (22.04.2021). 20 Bundestagsdrucksache Nr. 18-6168 vom 28.09.2015, Ziff. 41 21 Eingerichtet gem. VO (EU) Nr. 232/2014 des Europäischen Parlaments und des Rates vom 11. März 2014 zur Schaffung eines Europäischen Nachbarschaftsinstruments, ABl. L 77/27 22 Vgl. GTAI, Zusammenfassung, Regionales ENI-Aktionsprogramm 2020 (Teil 2) für die Region Ost Zulasten des Gesamthaushaltsplans der Europäischen Union (22.04.2021). 8
Im Zusammenhang mit dem oben genannten Ziel, EU-Politiken in den Ländern der östlichen Partnerschaft besser erklären zu wollen, geriet die East Stratcom Task Force in Kritik. Auf einer älteren Version ihrer Website fand sich noch die Formulierung, ein „positives EU-Narrativ“23 schaffen zu wollen, und so sah sie sich häufig mit dem Vorwurf konfrontiert, Gegenpropaganda zu betreiben.24 Tatsächlich zeigt ein Blick auf die Website der East Stratcom Task Force, dass sie in ihren Publikationen teilweise selbst den Boden der objektiven Fakten verlässt und stattdessen mit Werturteilen und Emotionen arbeitet. So heißt es etwa in der Rubrik „Desinformation im Jahr 2020: Die peinlichsten Momente“:25 „Die Welt konnte kaum aufhören, über Alexander Lukaschenko, den illegitimen Präsidenten von Belarus, zu lachen…“26, oder „…der Kreml würde nicht mit der Wimper zucken, bevor er sich zu radikalen Maßnahmen entschließt…“.27 An anderer Stelle wird gefragt: „Warum haben die kremlfreundlichen Medien Angst vor Greta? [Thunberg]“28, oder schlicht behauptet: „Den Westen anzugreifen ist wichtiger, als sich um das Leben und die Gesundheit des russischen Volkes zu kümmern.“29 Die East Stratcom Task Force betreibt eigenen Angaben zufolge keine Gegenpropaganda.30 Jedoch wurden auch innerhalb der EU Stimmen laut, die forderten, im Disinformation Review von beleidigenden Äußerungen und Werturteilen Abstand zu nehmen und die Kriterien zu überdenken, nach denen dieser Bericht verfasst wird.31 23 Vgl. EAD, „Questions and Answers“, archiviert, zitiert nach Giorio, War on Propaganda or Propaganda War? A case study of fact-checking and (counter) propaganda in the EEAS project EUvsDisinfo, [42] < http://uu.diva- portal.org/smash/get/diva2:1252061/FULLTEXT01.pdf> (22.04.2021) 24 Vgl. Giussani, Competing over truth. A critical analysis of EU initiatives to counter disinformation (2015-2019), 20 < https://ikee.lib.auth.gr/record/318872/files/GRI-2020-27264.pdf> (22.04.2021) Vgl. Butcher, Disinformation and democracy: The home front in the information war, 15 https://www.epc.eu/content/PDF/2019/190130_Disinformationdemocracy_PB.pdf (03.08.2021) 25 East Stratcom Task Force, Desinformation im Jahr 2020: Die peinlichsten Momente, < https://euvsdisinfo.eu/de/desinformation-im-jahr-2020-die-peinlichsten-momente/> (23.04.2021) 26 East Stratcom Task Force, Desinformation im Jahr 2020: Die peinlichsten Momente, < https://euvsdisinfo.eu/de/desinformation-im-jahr-2020-die-peinlichsten-momente/> (23.04.2021) 27 East Stratcom Task Force, Desinformation im Jahr 2020: Die peinlichsten Momente, < https://euvsdisinfo.eu/de/desinformation-im-jahr-2020-die-peinlichsten-momente/> (23.04.2021) 28 East Stratcom Task Force, Warum haben die kremlfreundlichen Medien Angst vor Greta?, (23.04.2021) 29 East Stratcom Task Force, Angriffe auf den Westen bringen Menschen in Russland in Gefahr. < https://euvsdisinfo.eu/de/angriffe-auf-den-westen-bringen-menschen-in-russland-in-gefahr/> (23.04.2021) 30 Vgl. EAD, Questions and Answers about the East Stratcom Task Force, https://eeas.europa.eu/headquarters/headquarters-homepage/2116/-questions-and-answers-about-the-east-stratcom- task-force_en, (23.04.2021). 31 Vgl. Europäisches Parlament, Entschließung des Europäischen Parlaments vom 23. November 2016 zu dem Thema „Strategische Kommunikation der EU, um gegen sie gerichteter Propaganda von Dritten entgegenzuwirken“ vom 23. November 2016, Ziff 43, ABl C 224/58 9
Aktuell beschäftigt die East Stratcom Task Force 16 Mitarbeiter*innen, darunter auch russischsprachiges Personal,32 verfügt über ein Budget von 4 Mio. € und erreicht 54.115 Follower auf Twitter.33 Dem gegenüber stehen der russische Medienkanal RT sowie die Nachrichtenagentur Sputnik, von denen ein Hauptteil der russischen Propaganda und Desinformation ausgeht.34 Sie operieren in über 40 Sprachen35 und mit einem Budget von über 1,1 Mrd. €.36 In den sozialen Medien werden sie dabei von Organisationen wie der Internet Research Agency (IRA) unterstützt, einer in St. Petersburg angesiedelten und vom Kreml finanzierten Organisation.37 Die rund 1.000 Mitarbeiter*innen38 unterstützen Desinformationskampagnen, indem sie (gefälschte) Profile sowie Posts und Kommentare erstellen, um bestimmte Inhalte und Narrative in den sozialen Medien zu fördern.39 Bereits im Jahr 2015 erreichte die IRA 150 Millionen Menschen über Facebook und Instagram.40 Alleine diese Zahlen zeigen deutlich, dass die Ressourcen und die Reichweite der East Stratcom Task Force (deren Aktivitäten zudem auf die Staaten der Östlichen Nachbarschaft, den Westbalkan und die Staaten des Nahen Ostens, Nordafrikas und der Golfregion ausgeweitet wurden) äußerst begrenzt sind. 32 EAD, Questions and Answers about the East StratCom Task Force, (19.03.2021) 33 https://twitter.com/euvsdisinfo?lang=de (24.04.2021) 34 Vgl. Scheidt, The European Union versus External Disinformation Campaigns in the Midst of Information Warfare: Ready for the Battle? 11 (24.04.2021) 35 Vgl. Staalesen, Free media on the scaffold, (25.04.2021) 36 Vgl. Scheidt, Ready for the Battle?, 20 (24.04.2021) 37 Vgl. Vilmer et al, Information Manipulation. A Challenge for our Democracies, Report by the Policy Planning Staff (CAPS) of the Ministry for Europe and Foreign Affairs and the Institute for Strategic Research (IRSEM) of the Ministry for the Armed Forces, 84 < https://www.diplomatie.gouv.fr/IMG/pdf/information_manipulation_rvb_cle838736.pdf> (25.04.2021) 38 Vgl. Stolton, Eu Commission takes aim at disinformation, admits funding deficit < https://www.euractiv.com/section/digital/news/eu-commission-takes-aim-at-disinformation-admits-funding-deficit/> (25.04.2021) 39 Vgl. Vilmer et al., Information Manipulation, 85 < https://www.diplomatie.gouv.fr/IMG/pdf/information_manipulation_rvb_cle838736.pdf> (25.04.2021) 40 Ebd. 10
IV. DIE DATENSCHUTZ-GRUNDVERORDNUNG A. Allgemeine datenschutzrechtliche Aspekte im Kampf gegen Desinformation Die Datenschutz-Grundverordnung (DSGVO)41 wurde nach jahrelangen Verhandlungen im Jahr 2016 erlassen und regelt die Verarbeitung personenbezogener Daten natürlicher Personen. Ziel war es, durch einheitliche Vorschriften die Fragmentierung im Bereich des Datenschutzes zu überwinden. Dabei sollten ein einheitliches und hohes Datenschutzniveau gewährleistet und gleichzeitig Hemmnisse für den Verkehr personenbezogener Daten innerhalb der Europäischen Union beseitigt werden. 42 Obwohl in den Erwägungsgründen der DSGVO nicht direkt auf Desinformation Bezug genommen wird, können die Regelungen zur Verarbeitung personenbezogener Daten dennoch die gezielte Verbreitung von Desinformation erschweren. Denn die Wurzel des Problems liegt nicht zuletzt in der unrechtmäßigen Verarbeitung personenbezogener Daten, die dazu genutzt werden können, Individuen und Gruppen als Adressaten zu identifizieren.43 Dabei wird ein dreistufiger Prozess durchlaufen, der von der Erhebung personenbezogener Daten über die Profilerstellung („Profiling“) bis hin zur gezielten Ansprache von Einzelpersonen („Microtargeting“) reicht. 1. Erhebung personenbezogener Daten Personenbezogene Daten sind gemäß DSGVO „alle Informationen, die sich auf eine identifizierte oder identifizierbare natürliche Person […] beziehen; als identifizierbar wird eine natürliche Person angesehen, die direkt oder indirekt, insbesondere mittels Zuordnung zu einer Kennung wie einem Namen, zu einer Kennnummer, zu Standortdaten, zu einer Online-Kennung oder zu einem oder mehreren besonderen Merkmalen, die Ausdruck der physischen, physiologischen, genetischen, psychischen, wirtschaftlichen, kulturellen oder sozialen Identität dieser natürlichen Person sind, identifiziert werden kann;“ 44 41 Verordnung (EU) 679/2016 des Europäischen Parlaments und des Rates vom 27.April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung), ABl L 2016/119. 42 Vgl. ErwGr 9 VO (EU) 679/2016 ABl L 2016/119. 43 Vgl. EDSB, Stellungnahme des EDSB zu Online-Manipulation und personenbezogenen Daten 2018/3, 27; Vgl. Ivanova, Can EU Data Protection Legislation Help to Counter “Fake News” and Other Threats to Democracy? in Katsikas/Zorkadis V. (Hrsg) E-Democracy – Safeguarding Democracy and Human Rights in the Digital Age (2019) 221 (223). 44 Art. 4 Abs. 1 VO (EU) 679/2016 ABl L 2016/119. 11
Das Erheben personenbezogener Daten gilt nach Art. 4 Abs. 2 DSGVO als Verarbeitung und unterliegt damit den Bestimmungen der DSGVO. Daher müssen die Verarbeitungsgrundsätze (Art. 5 DSGVO) eingehalten werden, und die Verarbeitung muss rechtmäßig erfolgen (Art. 6 DSGVO: Sofern nicht die in Art. 6 Abs. 1 lit. b-f angeführten Verarbeitungsgründe erfüllt sind, muss die betroffene Person gem. Art. 6 Abs. 1 lit. a ihre Einwilligung zu der Verarbeitung erteilen). Darüber hinaus sind in Artikel 9 besondere Kategorien personenbezogener Daten definiert, deren Verarbeitung strengeren Regeln unterliegt. Dazu zählen etwa Daten, aus denen die rassische/ethnische Herkunft der betroffenen Person oder ihre politischen Meinungen/ ihre religiösen oder weltanschaulichen Überzeugungen hervorgehen.45 Die Verarbeitung dieser Daten ist grundsätzlich untersagt, sofern nicht eine der in Artikel 9 Abs. 2 angeführten Ausnahmen (unter anderem die ausdrückliche Einwilligung der betroffenen Person, Art. 9 Abs. 2 lit. a DSGVO) zutrifft. Basiert eine Verarbeitung auf der Einwilligung der betroffenen Person, kann sie ihre Einwilligung jederzeit widerrufen (Art. 7 Abs. 3 DSGVO). Im Rahmen von Desinformationskampagnen werden zum Beispiel der geografische Standort, die Nationalität, die politischen Überzeugungen, das Alter sowie andere persönliche Merkmale genutzt, um Botschaften auf das Zielpublikum abzustimmen.46 Im politischen Kontext basiert die gezielte Ansprache von Einzelpersonen meist auf den oben erwähnten besonderen Kategorien personenbezogener Daten.47 Daher können die in der DSGVO enthaltenen Einschränkungen bei der Verarbeitung dieser personenbezogenen Daten als Instrument dienen, um die Verbreitung von Desinformation zu erschweren. 45 Vgl. Art. 9 Abs. 1 VO (EU) 679/2016 ABl L 2016/119. 46 Vgl. Bayer et al., Disinformation and Propaganda – Impact on the Functioning of the Rule of Law in the EU and Its Member States, 30 (06.02.2021). 47 Vgl. Bayer et al., Disinformation and Propaganda, 60. (06.02.2021). 12
2. Profiling Werden die erhobenen (personenbezogenen) Daten automatisiert verarbeitet, um persönliche Aspekte einer Person (zum Beispiel Interessen, Verhalten oder wirtschaftliche Lage) zu analysieren oder vorherzusagen, spricht man von „Profiling“.48 Je mehr Nutzerdaten erhoben werden und je länger das Profiling andauert, desto mehr Rückschlüsse können aus dem Profil, in dem diese Daten zusammenlaufen, gezogen werden.49 Im Fall des größten Social Media-Anbieters wurden über 52.000 persönliche Merkmale herangezogen, um eine möglichst genaue Profilerstellung der einzelnen Nutzer zu ermöglichen.50 Dabei spielen nicht nur demografische Daten wie Alter, Geschlecht oder Wohnort eine Rolle. Um einen hohen Grad an Personalisierung zu erreichen, werden zunehmend auch psychografische Faktoren miteinbezogen („psychometrisches Profiling“).51 Dazu bedienen sich die Profilersteller durchaus überraschender Methoden: So kann etwa aus Telefonprotokollen (z. B. Dauer und Anzahl der ein- und ausgehenden Anrufe, Regelmäßigkeit der Interaktionen, Reaktionszeit) auf den Persönlichkeitstyp geschlossen werden,52 das Tippverhalten auf der Computertastatur lässt Rückschlüsse auf den Gefühlszustand (z. B. Nervosität oder Traurigkeit) zu.53 Daten über den psychischen Zustand von Einzelpersonen können auch interessant sein, um Desinformation gezielt zu verbreiten, da Artikel, die Desinformation enthalten, im Vergleich zu „echten“ Nachrichten eine signifikant erhöhte Emotionalität aufweisen.54 Sowohl bei den Titeln als auch in den Texten fällt auf, dass negative Emotionen und hier besonders Empörung und Wut überwiegen.55 48 Vgl Art. 4 Abs. 4 VO (EU) 679/2016 ABl L 2016/119. 49 Vgl. Mondschein, The Regulation of Targeted Behavioural Advertising in the European Union, MCEL Master Working Paper 2017/2, 11 (16.03.2021) 50 Vgl. EDSB, Stellungnahme des EDSB zu Online-Manipulation und personenbezogenen Daten 2018/3, 10. 51 Vgl. Kertysova, Artificial Intelligence and Disinformation. How AI Changes the Way Disinformation is Produced, Disseminated, and Can Be Countered, Security and Human Rights 29 (2018), 55 (64). 52 Vgl. De Montjoye, Predicting Personality Using Novel Mobile Phone-Based Metrics. In: Bos (Hrsg), Social Computing,Behavioral-Cultural Modeling and Prediction, (2013) 48 (51). 53 Vgl. Epp, Identifying emotional states using keystroke dynamics. < https://core.ac.uk/download/pdf/226148502.pdf> (18.03.2021). 54 Vgl. Paschen, Investigating the emotional appeal of fake news using artificial intelligence and human contributions, Journal of Product & Brand Management (2019), Vol. 29 No. 2 (2019), 17. 55 Vgl. Paschen, Journal of Product & Brand Management (2019), Vol. 29 No. 2 (2019), 18. 13
Artikel 22 Abs. 1 DSGVO regelt das Profiling in Fällen, in denen Entscheidungen ausschließlich aufgrund einer automatisierten Verarbeitung (= einer automatisierten Profilerstellung) getroffen werden. Dies ist nicht zulässig, wenn solche Entscheidungen rechtliche Wirkung für die betroffene Person entfalten oder sie in anderer Weise erheblich beeinträchtigen. Ausnahmen bestehen für die Erfüllung eines Vertrags, gesetzliche Vorgaben in Mitgliedsstaaten und in Fällen, in denen die betroffene Person in die automatisierte Verarbeitung ausdrücklich eingewilligt hat.56 Das bedeutet zunächst, dass weder Profiling-Aktivitäten selbst noch Entscheidungen, die auf Profiling beruhen, grundsätzlich verboten sind. Wie bei jeder Verarbeitung gelten auch hier die oben angeführten Regelungen zu Grundsätzen (Artikel 5) und Rechtmäßigkeit (Artikel 6) der Verarbeitung sowie zu besonderen Kategorien personenbezogener Daten (Artikel 9). Wie oben erwähnt, ist die Verarbeitung besonderer Kategorien personenbezogener Daten im Kontext von politischen Desinformationskampagnen besonders relevant. Auch Profiling-Aktivitäten, die auf der Verarbeitung solcher Daten beruhen, unterliegen strengeren Bedingungen: So dürfen besondere Kategorien personenbezogener Daten grundsätzlich nicht für die Profilerstellung herangezogen werden, es sei denn, es greift eine der in Artikel 22 Abs. 4 iVm Art. 9 Abs. 2 lit. a oder g angeführten Ausnahmen. Eine ausschließlich automatisierte Verarbeitung liegt vor, wenn die Entscheidungsfindung ohne menschliche Intervention erfolgt.57 Beispiele für Fälle, in denen die automatisierte Verarbeitung rechtliche Wirkung entfaltet, sind unter anderem die Kündigung von Verträgen oder Entscheidungen über die Gewährung von Sozialleistungen wie Kindergeld.58 Eine erhebliche Beeinträchtigung ohne direkte rechtliche Auswirkungen können zum Beispiel die Ablehnung eines Online-Kreditantrags oder Online- Einstellungsverfahren ohne menschliche Intervention sein.59 Schwieriger zu beantworten ist die Frage, ob auch Desinformationskampagnen, deren Verbreitung auf einer automatisierten Profilerstellung basiert, eine erhebliche Beeinträchtigung für betroffene Personen darstellen können. 56 Art. 22 Abs. 1 lit. a-c VO (EU) 679/2016 ABl L 2016/119. 57 Vgl. Article 29 Working Party, Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679, WP 251, 17/EN, 20 < https://ec.europa.eu/newsroom/article29/document.cfm?action=display&doc_id=49826> (6.02. 2021). 58 Vgl. Article 29 Working Party, WP 251, 21. 59 Vgl. ErwGr 71 VO (EU) 679/2016 ABl L 2016/119. 14
Hierüber lässt sich natürlich keine pauschale Aussage treffen, da dies sowohl vom Inhalt der Desinformationskampagne als auch davon abhängt, ob die betroffene Person aufgrund der Desinformation Handlungen oder Unterlassungen setzt. Dies lässt sich am Beispiel von Impfungen und den Auswirkungen von Desinformation zu diesem Thema verdeutlichen. Eine im Jahr 2020 veröffentlichte Studie zeigte zum einen, dass russische Desinformationskampagnen impfkritische Debatten in sozialen Medien stark beförderten.60 Es konnte aber auch ein weiterer Zusammenhang nachgewiesen werden – sinkende Impfraten.61 Diese führen wiederum dazu, dass Einzelpersonen nicht vor Infektionen geschützt und damit einem erhöhten gesundheitlichen Risiko ausgesetzt sind. In die genannte Studie wurde unter anderem die Impfung gegen Tetanus miteinbezogen, eine ernste Erkrankung mit einer Sterblichkeitsrate von über 20 %.62 Daher könnte man argumentieren, dass Desinformationskampagnen durchaus erhebliche Beeinträchtigungen für betroffene Personen darstellen können. Ähnlich verhält es sich mit Desinformationskampagnen im politischen Kontext und mit Wahlwerbung. Die Entscheidung für oder gegen Kandidat*innen und Parteien kann konkrete Auswirkungen in nahezu allen Lebensbereichen nach sich ziehen. Aufgrund der Tragweite politischer Entscheidungen wird daher auch gefordert, politisches Microtargeting (siehe unten), das auf einer automatisierten Profilerstellung basiert, im Sinn des Art. 22 DSGVO generell als ausschließlich automatisierte Verarbeitung anzuerkennen, die betroffene Personen erheblich beeinträchtigt.63 3. Microtargeting Die aus der Profilerstellung gewonnen Erkenntnisse werden in der Folge eingesetzt, um bestimmte Personen(-gruppen) mit maßgeschneiderten und personalisierten Inhalten gezielt anzusprechen („Microtargeting“). Dahinter können kommerzielle, politische oder andere nicht-kommerzielle Akteure stehen. Auch die Mechanismen, durch die Plattformen sozialer Medien darüber entscheiden, welchem Nutzer welche Inhalte in welcher Reihenfolge angezeigt werden, können zum Microtargeting gezählt werden.64 60 Vgl. Wilson et al, Social media and vaccine hesitancy, BMJ global health 2020, 1. 61 Vgl. Wilson et al, BMJ global health 2020, 1. 62 Vgl. Bundesministerium für Soziales, Gesundheit, Pflege und Konsumentenschutz, https://www.sozialministerium.at/Themen/Gesundheit/Uebertragbare-Krankheiten/Infektionskrankheiten-A-Z/Tetanus- (Wundstarrkrampf).html (24.04.2021); Wilson et al, BMJ global health 2020, 4. 63 Vgl. Bayer et al., Disinformation and Propaganda, 137. 64 Vgl. Ivanova in Katsikas/Zorkadis, E-Democracy, 221 (225). 15
Microtargeting führte zu einer zunehmenden Personalisierung von Online-Diensten. Dies bietet den Nutzern durchaus Vorteile, zum Beispiel relevantere Inhalte. Dem stehen aber, vor allem im politischen Kontext und im Zusammenhang mit Desinformationskampagnen, auch wesentliche Nachteile wie Diskriminierung, Polarisierung und Manipulation gegenüber.65 Gemäß Erwägungsgrund 47 DSGVO kann die Verarbeitung personenbezogener Daten zum Zweck der Direktwerbung als Verarbeitung betrachtet werden, die einem berechtigten Interesse dient (vgl. Art. 6 Abs. 1 lit. f DSGVO). Somit ist (kommerzielles) Microtargeting grundsätzlich zulässig, die betroffene Person hat allerdings ein Widerspruchsrecht.66 Spezifischere Regelungen finden sich in der DSGVO nicht. Da Microtargeting jedoch auf den zuvor erhobenen personenbezogenen Daten und auf der Profilerstellung basiert, wirken sich die oben erwähnten Regelungen dieser Bereiche indirekt auch auf das Microtargeting aus. Die gezielte Ansprache durch Microtargeting ist natürlich ein entscheidender Faktor für den Erfolg von Desinformationskampagnen, die in Ermangelung eines aufnahmebereiten Zielpublikums im Sande verlaufen würden. Die oben beschriebene Profilerstellung erlaubt es, Desinformation gezielt an solche Einzelpersonen zu verbreiten, die aufgrund bekannter Charakteristika eher geneigt sind, ihnen Glauben zu schenken. Eine brasilianische Studie, die russische Desinformationskampagnen auf Facebook im Zeitraum zwischen 2015 und 2017 untersuchte, konnte deutlich nachweisen, dass diese Kampagnen im Vergleich zu anderen Anzeigen auf Facebook signifikant erfolgreicher waren. 67 Sowohl Microtargeting als auch die Profilerstellung basieren, wie oben beschrieben, letztendlich auf erhobenen personenbezogenen Daten. Daher wird auch argumentiert, dass Desinformationskampagnen einen Großteil ihrer Effektivität und ihres Bedrohungspotenzials einbüßen würden, wenn die unrechtmäßige Erhebung personenbezogener Daten gestoppt würde.68 65 Vgl. Ivanova in Katsikas/Zorkadis, E-Democracy, 221 (226). 66 vgl. ErwGr 70, Art. 21 Abs. 2 VO (EU) 679/2016 ABl L 2016/119. 67 Vgl. Ribeiro et al., On Microtargeting Socially Divisive Ads: A Case Study of Russia-Linked Ad Campaigns on Facebook, 10 < https://arxiv.org/pdf/1808.09218.pdf> (07.03.2021). 68 Vgl. Civil Liberties Union for Europe et al, Informing the misinformation debate, 16 < https://edri.org/files/online_disinformation.pdf > (08.03.2021). 16
B. Datenschutz und Desinformation im Kontext von Wahlen Die DSGVO gilt grundsätzlich auch für wahlbezogene Datenverarbeitungsvorgänge. Die Verarbeitung ist unter anderem dann rechtmäßig, wenn sie für die Wahrnehmung einer Aufgabe erforderlich ist, die im öffentlichen Interesse liegt. 69 Dazu zählt auch die Erhebung personenbezogener Daten über die politische Einstellung natürlicher Personen durch politische Parteien im Zusammenhang mit Wahlen, sofern geeignete Garantien vorgesehen werden.70 Im Kontext von Wahlen werden häufig besondere Kategorien personenbezogener Daten iSd Art. 9 Abs. 1 DSGVO, aus denen etwa politische oder weltanschauliche Überzeugungen hervorgehen, verarbeitet.71 Hier gelten die oben erwähnten strengeren Bestimmungen für die Verarbeitung sowie die in Art. 9 Abs. 2 lit. a-j enthaltenen Ausnahmeregelungen. Gemäß lit. d dürfen politische Parteien als politische Vereinigungen diese sensiblen Daten verarbeiten, wenn sich die Verarbeitung entweder auf Parteimitglieder, ehemalige Mitglieder oder auf Personen bezieht, die regelmäßige Kontakte mit der Partei unterhalten. Das bedeutet, dass diese Ausnahmeregelung nicht für die Verarbeitung personenbezogener Daten potenzieller Mitglieder oder Sympathisanten gilt. Gemäß dem Grundsatz der Zweckbindung (Art. 5 Abs. 1 lit. b DSGVO) dürfen die erhobenen Daten nur zu einem Zweck weiterverarbeitet werden, der mit dem ursprünglichen Verarbeitungszweck vereinbar ist. Daher dürfen Daten, die zum Beispiel zu kommerziellen Zwecken erhoben wurden, nicht von politischen Parteien im Zusammenhang mit Wahlen weiterverarbeitet werden.72 Was Desinformationskampagnen betrifft, ist vor allem das politische Microtargeting problematisch. Wie oben beschrieben, werden bestimmte Personen aufgrund der zuvor erstellten Profile gezielt angesprochen, um die Verbreitung von Desinformation zu begünstigen. Im Kontext von Wahlen untergraben solche Eingriffe den öffentlichen Diskurs und wirken sich auf das Funktionieren des demokratischen Systems insgesamt aus.73 69 Vgl. Art. 6 Abs. 1 lit. e VO (EU) 679/2016 ABl L 2016/119. 70 Vgl. ErwGr 56 VO (EU) 679/2016 ABl L 2016/119. 71 Europäische Kommission, Leitfaden der Kommission zur Anwendung des EU-Datenschutzrechts im Zusammenhang mit Wahlen, 4 (14.04.2021) 72 Vgl. Ebd, 7 (14.04.2021). 73 Vgl. Ebd, 1 (14.04.2021). 17
Direktwerbung ist unter der Datenschutzrichtlinie für elektronische Kommunikation74 grundsätzlich zulässig. Voraussetzung für die Rechtmäßigkeit von Direktwerbung ist, dass der Empfänger seine Einwilligung gibt75 oder (falls er dem werbenden Unternehmen seine Kontaktdaten bereits als Kunde zur Verfügung gestellt hat) Direktwerbung ablehnen kann.76 Wie oben bereits erwähnt, ist die Datenverarbeitung zum Zweck der Direktwerbung auch unter der DSGVO grundsätzlich zulässig.77 Noch nicht geklärt ist, ob das „Voter Microtargeting“, also die gezielte Ansprache von Wähler*innen, den Bestimmungen über die Direktwerbung unterliegt. Im Entwurf zur neuen E-Privacy-Verordnung78 wird dieses Thema nun aufgegriffen. Direktwerbung umfasst hier neben Kommunikation zu gewerblichen Zwecken auch Wahlwerbung politischer Parteien und Nachrichten anderer Organisationen ohne Erwerbszweck.79 Das bedeutet, dass Einzelpersonen nur dann nicht-kommerzielle Direktwerbung (also auch Wahlwerbung) erhalten dürfen, wenn sie hierzu ihre Einwilligung gegeben haben. 80 74 Richtlinie 2002/58/EG des Europäischen Parlaments und des Rates vom 12. Juli 2002 über die Verarbeitung personenbezogener Daten und den Schutz der Privatsphäre in der elektronischen Kommunikation (Datenschutzrichtlinie für elektronische Kommunikation), ABl L 2002/201. 75 Vgl. Art. 13 Abs. 1 RL 2002/58/EG. 76 Vgl. Art. 13 Abs. 2 RL 2002/58/EG. 77 Vgl. ErwGr 47 VO (EU) 679/2016 ABl L 2016/119. 78 Vgl. Europäische Kommission, Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates über die Achtung des Privatlebens und den Schutz personenbezogener Daten in der elektronischen Kommunikation und zur Aufhebung der Richtlinie2002/58/EG (Verordnung über Privatsphäre und elektronische Kommunikation), KOM (2017) 10 endg. 79 Vgl. ErwGr 32, KOM (2017) 10 endg. 80 Vgl. Art. 16 Abs. 1 KOM (2017) 10 endg. 18
V. DAS „EUROPÄISCHE KONZEPT“ GEGEN DESINFORMATION IM INTERNET A. Hochrangige Expert*innengruppe und öffentliche Konsultation Im Januar 2018 setzte die Kommission eine hochrangige Expert*innengruppe ein, die sich aus 39 Vertreter*innen aus Zivilgesellschaft, Social-Media-Plattformen, Medienorganisationen, Journalist*innen und der Wissenschaft zusammensetzte.81 Sie sollte die Kommission in allen Fragen im Zusammenhang mit der Verbreitung von Desinformation sowie den daraus folgenden sozialen und politischen Konsequenzen beraten.82 In ihrem Bericht empfahl die Expert*innengruppe einen multidimensionalen Ansatz zur Bekämpfung von Desinformation, der (zumindest kurz- bis mittelfristig) auf freiwilliger Selbstregulierung der Interessensgruppen durch einen Verhaltenskodex basiert.83 Als Interessensgruppen werden Online-Plattformen, Nachrichtenmedien (sowohl Presse als auch Rundfunk), Journalist*innen, Faktenchecker*innen, unabhängige Ersteller*innen von Inhalten sowie die Werbeindustrie genannt.84 Die von der Expert*innengruppe vorgeschlagene Strategie beinhaltet neben der Selbstregulierung im Wesentlichen fünf Säulen, die folgende Themenbereiche umfassen: Erhöhte Transparenz von Online-Nachrichten, die Stärkung der Medienkompetenz, die Entwicklung von Instrumenten, mit denen Nachrichtenkonsument*innen sowie Journalist*innen Desinformation begegnen können, die Wahrung der Vielfalt und Nachhaltigkeit des europäischen Medien-Ökosystems sowie fortlaufende Forschungstätigkeit zu den Auswirkungen von Desinformation.85 81 Vgl. Europäische Kommission, Experts appointed to the High-Level Group on Fake News and online disinformation, https://digital-strategy.ec.europa.eu/en/news/experts-appointed-high-level-group-fake-news-and-online-disinformation (21.07.2021) 82 Vgl. Europäische Kommission, Generaldirektion Kommunikationsnetze, Inhalte und Technologien, A multi- dimensional approach to disinformation. Report of the independent High level Group on fake news and online disinformation, https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=50271, 5 (11.06.2021) 83 Vgl. Ebd, 6 (11.06.2021) 84 Vgl. Ebd (11.06.2021) 85 Vgl. Europäische Kommission, Generaldirektion Kommunikationsnetze, Inhalte und Technologien, A multi- dimensional approach to disinformation. Report of the independent High level Group on fake news and online disinformation, , 5f (11.06.2021) 19
Zusätzlich zu den Tätigkeiten der Expert*innengruppe wurde im angrenzenden Zeitraum auch eine Eurobarometer-Umfrage zum Thema Desinformation im Internet durchgeführt, an der über 26.000 Menschen aus den (damals) 28 Mitgliedsstaaten teilnahmen.86 Dabei gab die Mehrheit der Befragten an, mindestens einmal pro Woche mit Desinformation konfrontiert zu sein.87 Das Vertrauen in Nachrichten und Informationen aus Online-Medien (durchschnittlich 33%) war nur halb so groß wie das Vertrauen, das traditionellen Medien wie TV, Radio und Printmedien entgegengebracht wurde (durchschnittlich 66 %).88 Interessanterweise bedeutet das aber nicht, dass die Befragten vorrangig Onlinedienste wie soziale Netzwerke in der Verantwortung sahen, Desinformation im Internet zu bekämpfen: Diese Aufgabe wurde eher Journalist*innen zugedacht (45 %).89 Was den öffentlichen Sektor betrifft, so sahen die Befragten die nationalen Regierungsbehörden deutlich stärker in der Pflicht als EU-Institutionen (39 % zu 21 %). Im Zeitraum zwischen November 2017 und Februar 2018 wurde außerdem eine öffentliche Konsultation zum Thema Desinformation durchgeführt, an der sich 2986 natürliche und juristische Personen beteiligten.90 Die Mehrheit der Befragten befürwortete den Ansatz, Desinformation durch freiwillige Selbstregulierung der Online-Plattformen zu bekämpfen und verbindliche regulatorische Maßnahmen lediglich als Alternativoption vorzusehen. B. Eckpunkte des „Europäischen Konzepts“ Die Ergebnisse des Berichts der hochrangigen Expert*innengruppe und sowie der Eurobarometer-Umfrage und der öffentlichen Konsultation flossen schließlich in eine Mitteilung der Europäischen Kommission ein, die im April 2018 veröffentlicht wurde.91 Dieses Dokument bildet die Grundlage für die Initiativen der Europäischen Kommission und stellt das „Europäische Konzept“ gegen Desinformation im Internet vor: 86 Vgl. Europäische Kommission, Flash Eurobarometer 464, Briefing Note, Fake news and disinformation online, 2 < https://europa.eu/eurobarometer/api/deliverable/download/file?deliverableId=65674> (11.06.2021) 87 Vgl. Europäische Kommission, Flash Eurobarometer 464, Briefing Note, Fake news and disinformation online, 4 < https://europa.eu/eurobarometer/api/deliverable/download/file?deliverableId=65674> (11.06.2021) 88 Vgl. Europäische Kommission, Flash Eurobarometer 464, Briefing Note, Fake news and disinformation online, 5 < https://europa.eu/eurobarometer/api/deliverable/download/file?deliverableId=65674> (11.06.2021) 89 Vgl. Europäische Kommission, Flash Eurobarometer 464, Briefing Note, Fake news and disinformation online, 12 < https://europa.eu/eurobarometer/api/deliverable/download/file?deliverableId=65674> (11.06.2021) 90 Vgl. Europäische Kommission, Summary report of the public consultation on fake news and online disinformation, , 1 (16.06.2021) 91 Europäische Kommission, Mitteilung der Kommission an das Europäische Parlament, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen, Bekämpfung von Desinformation im Internet: ein europäisches Konzept, KOM (2018) 236 endg vom 26.04.2018 20
1.) die Kommission versteht die in der Mitteilung vorgeschlagenen Maßnahmen als Ergänzung zur Datenschutz-Grundverordnung, deren Regelungen – wie oben beschrieben – die Verbreitung von Desinformation erschweren können.92 2.) die Kommission schlägt die Ausarbeitung eines Verhaltenskodex für Online- Plattformen vor (siehe unten).93 Dies spiegelt den Ansatz der Selbstregulierung wider, der von der hochrangigen Expert*innengruppe vorgeschlagen und in der öffentlichen Konsultation unterstützt wurde. 3.) Das Kernstück der Mitteilung bilden Maßnahmen, die auf vier übergeordneten Grundsätzen und Zielvorgaben basieren: Erhöhte Transparenz (Angaben zum Ursprung von Informationen, insbesondere im Bereich der politischen Werbung), Vielfalt der Informationen (Förderung von Qualitätsjournalismus und Medienkompetenz), Glaubwürdigkeit der Informationen (Hinweise auf ihre Zuverlässigkeit und Rückverfolgbarkeit) und Inklusivität (Zusammenarbeit der staatlichen und privaten Interessensträger). 94 Hier zeigt sich, dass tatsächlich ein multidimensionaler Ansatz verfolgt wird, der verschiedenste Akteur*innen miteinbezieht: Die Bereiche der Transparenz und der Glaubwürdigkeit richten sich hauptsächlich an die Betreiber von Online-Plattformen. Die Vielfalt von Informationen soll durch die Einbeziehung von Journalist*innen, durch verschiedene Initiativen auf EU-Ebene (Sachverständigen- und Arbeitsgruppen oder Initiativen wie #SaferInternet4EU95) sowie durch Anstrengungen der Mitgliedsstaaten (Bereitstellung von Mitteln für Initiativen im Bildungsbereich, aber auch Beihilfen für Qualitätsmedien) gefördert werden. Darüber hinaus basiert die Mitteilung auch auf der Einbindung der Zivilgesellschaft durch die erwähnten Umfragen. 92 KOM (2018) 236 endg, 8 93 KOM (2018) 236 endg, 9 94 KOM (2018) 236 endg, 7 95 Diese Initiative richtet sich an Kinder, Jugendliche, Eltern und Lehrer*innen. Durch Aktivitäten wie Schulungen und Wettbewerbe soll die Medienkompetenz gefördert und Bewusstsein für Themen wie Desinformation, Cyberbullying und Radikalisierung geschaffen werden, Vgl. Europäische Kommission, The #SaferInternet4EU Campaign, < https://ec.europa.eu/digital-single-market/en/news/saferinternet4eu-campaign-0> (21.06.2021) 21
Aufbauend auf diesen Grundsätzen wurde eine Reihe von konkreten Maßnahmen vorgeschlagen. Dazu zählen: Informationen der Online-Plattformen zu strategischen Verbreitungsmethoden (zum Beispiel durch bezahlte Influencer oder Roboter, sogenannte „Bots“), die Schließung von Scheinkonten, detaillierte Informationen über verwendete Algorithmen, Einrichtung von Netzwerken aus Faktenprüfer*innen, Maßnahmen zur elektronischen Identifizierung sowie die Nutzung neuer Technologien wie maschinelles Lernen oder Blockchain. Schließlich betont die Kommission auch die Bedeutung der strategischen Kommunikation (die durch die oben beschriebene East Stratcom Task Force bereits intensiviert wurde) und kündigt eine verstärkte Zusammenarbeit mit dem Europäischen Auswärtigen Dienst an. 22
VI. NEUE TECHNOLOGIEN UND DESINFORMATION A. Herausforderungen Die von der Kommission angekündigten Maßnahmen wurden sowohl auf EU-Ebene als auch auf Ebene der Mitgliedsstaaten begrüßt.96 Allerdings wurde auch Kritik geäußert und der Kommission ein Mangel an Dringlichkeitsbewusstsein und Ehrgeiz vorgeworfen.97 Dies betraf etwa die Nutzung neuer Technologien, die von der EU-Kommission in ihrer Mitteilung zwar angerissen, aber nicht detailliert beschrieben wurde. Auch innerhalb der EU zeigte man sich besorgt darüber, dass die EU und ihre Mitgliedsstaaten nur unzureichend auf Desinformationskampagnen vorbereitet seien, die durch künstliche Intelligenz (KI) losgetreten werden.98 Dabei wird angenommen, dass sich neue Technologien und Desinformationskampagnen, die diese Technologien nutzen, zu einem wichtigen Instrument der politischen Kriegsführung entwickeln werden.99 Systeme künstlicher Intelligenz können genutzt werden, um Desinformation zu verbreiten (etwa durch Algorithmen, Bots und/oder durch die Manipulation von Bildern, Videos und Text, also durch sognannte „Deep Fakes“). Sie können aber auch genutzt werden, um ebendiese Vorgänge zu erkennen und zu bekämpfen. So werden zum Beispiel Instrumente für automatisches Faktenprüfen entwickelt, und die automatische Analyse von Bildern und Videos kann helfen, gefälschte Inhalte zu erkennen.100 96 Vgl. etwa Europäischer Wirtschafts- und Sozialausschuss, Stellungnahme des Europäischen Wirtschafts- und Sozialausschusses zur „Mitteilung der Kommission an das Europäische Parlament, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen — Bekämpfung von Desinformation im Internet: ein europäisches Konzept“ ABl 2018/C 440/32, Abs. 1 Ziff 1.3. Vgl. Europäischer Ausschuss der Regionen, Stellungnahme des Europäischen Ausschusses der Regionen zu dem Thema „Bekämpfung von Desinformation im Internet: ein europäisches Konzept“ ABl 2019/C 168/04 Ziff. 14, Vgl. Bundestagsdrucksache Nr. 154/1/18 vom 28.05.2018 97 Vgl. Europäischer Wirtschafts- und Sozialausschuss, ABl 2018/C 440/32, Abs. 1 Ziff 1.4 98 Vgl. Europäischer Ausschuss der Regionen, ABl 2019/C 168/04 Ziff. 11 99 Vgl. Kertysova, Security and Human Rights 29 (2018), 55 (79) 100 Vgl. Austrian Institute of Technology, High-Tech im Kampf gegen Fake News, https://www.ait.ac.at/blog/high-tech- im-kampf-gegen-fake-news> (05.07.2021) 23
Sie können auch lesen