EU-INITIATIVEN GEGEN DESINFORMATION - JKU ePUB

Die Seite wird erstellt Sibylle-Rose Voß
 
WEITER LESEN
Eingereicht von
                                        Eva Pumpernig

                                        Angefertigt am
                                        Institut für

EU-INITIATIVEN
                                        Europarecht

GEGEN
                                        Beurteiler

                                        Univ.-Prof. Dr. Franz

DESINFORMATION
                                        Leidenmühler

                                        Linz, September 2021

Diplomarbeit
zur Erlangung des akademischen Grades
Magistra der Rechtswissenschaften
im Diplomstudium der
Rechtswissenschaften

                                        JOHANNES KEPLER
                                        UNIVERSITÄT LINZ
                                        Altenberger Straße 69
                                        4040 Linz, Österreich
                                        jku.at
EIDESSTATTLICHE ERKÄRUNG

Ich erkläre an Eides statt, dass ich die vorliegende Diplomarbeit selbstständig und ohne
fremde Hilfe verfasst, andere als die angegebenen Quellen und Hilfsmittel nicht benutzt
bzw. die wörtlich oder sinngemäß entnommenen Stellen als solche kenntlich gemacht
habe.

Die vorliegende Diplomarbeit ist mit dem elektronisch übermittelten Textdokument
identisch.

Wien, 17.09.2021
------------------------------------
Ort, Datum

-------------------------------------
Unterschrift

                                                                                       2
Inhalt

I.         EINLEITUNG .......................................................................................................................................... 4

II.        WAS IST DESINFORMATION? ............................................................................................................ 5

III.       DIE EAST STRATCOM TASK FORCE ................................................................................................. 7

IV.             DIE DATENSCHUTZ-GRUNDVERORDNUNG ...............................................................................11

      A.        ALLGEMEINE DATENSCHUTZRECHTLICHE ASPEKTE IM KAMPF GEGEN DESINFORMATION .........................11
           1.      Erhebung personenbezogener Daten ..........................................................................................11
           2.      Profiling .........................................................................................................................................13
           3.      Microtargeting ...............................................................................................................................15
      B.        DATENSCHUTZ UND DESINFORMATION IM KONTEXT VON WAHLEN .........................................................17

V.         DAS „EUROPÄISCHE KONZEPT“ GEGEN DESINFORMATION IM INTERNET ............................19

      A.        HOCHRANGIGE EXPERT*INNENGRUPPE UND ÖFFENTLICHE KONSULTATION ............................................19
      B.        ECKPUNKTE DES „EUROPÄISCHEN KONZEPTS“ .....................................................................................20

VI.             NEUE TECHNOLOGIEN UND DESINFORMATION .......................................................................23

      A.        HERAUSFORDERUNGEN ......................................................................................................................23
      B.        NEUER RECHTSRAHMEN FÜR KÜNSTLICHE INTELLIGENZ........................................................................24
           1.      Verbot von KI-Anwendungen mit unannehmbarem Risiko (Artikel 5) ..........................................25
           2.      Transparenzpflichten für KI-Anwendungen mit geringem Risiko (Artikel 52) ..............................27

VII.            DER AKTIONSPLAN GEGEN DESINFORMATION .......................................................................29

      A.        FRÜHWARNSYSTEM GEGEN DESINFORMATION......................................................................................29

VIII.           VERHALTENSKODEX UND SELBSTREGULIERUNG .................................................................31

      A.        ENTSTEHUNG UND INHALT ...................................................................................................................31
      B.        ERSTER FORTSCHRITTSBERICHT .........................................................................................................33
      C.        KRITIK UND HERAUSFORDERUNGEN .....................................................................................................35
      D.        WEITERENTWICKLUNG DES VERHALTENSKODEX ...................................................................................37
           1.      Neue Leitlinien der Kommission ...................................................................................................38
           2.      Von Selbstregulierung zu Koregulierung ......................................................................................39

IX. INITIATIVEN GEGEN DESINFORMATION IM ZUSAMMENHANG                                                                     MIT COVID-19 ....................42

X.         FAZIT ...................................................................................................................................................45

XI. LITERATURVERZEICHNIS .................................................................................................................47

                                                                                                                                                                      3
I. EINLEITUNG

Spätestens seit der Präsidentschaftswahl 2016 in den USA diskutiert eine breite
Öffentlichkeit über Begriffe wie „Fake News“ und „alternative Fakten“. Dabei ist
Desinformation keineswegs ein neues Phänomen: Schon Julius Cäsar manipulierte in
seinen Kriegsberichten die Opferzahlen auf eigener und gegnerischer Seite, um seinen
Handlungen Legitimität zu verleihen.1
Neu sind aber die Möglichkeiten, die im digitalen Zeitalter zur Verfügung stehen, um
Desinformation zu verbreiten und zu konsumieren. Online-Medien, -Plattformen und
Messenger-Dienste erreichen in Echtzeit Milliarden Menschen auf der ganzen Welt.
Durch den technologischen Wandel hat sich auch das Problem der Desinformation
zugespitzt: Heute sind 85 % der Europäer*innen der Ansicht, dass Desinformation ein
Problem in ihrem Land darstellt, und 83 % sehen darin ein Problem für die Demokratie im
Allgemeinen.2 Desinformationskampagnen können die Verwundbarkeit einer Gesellschaft
ausnutzen und als Vehikel für hybride Bedrohungen dienen.3 Nicht zuletzt die COVID-19-
Pandemie hat gezeigt, wie oft und wie umfangreich wir mit Desinformation konfrontiert
sind.
Gesellschaft und Politik stehen also vor einer großen Herausforderung, die auch von der
Europäischen Union erkannt wurde.

Die folgende Arbeit soll zeigen, wie die Europäische Union seit dem Jahr 2015 auf
unterschiedliche Art und Weise versucht, sich dieser Thematik anzunähern. Dabei soll
deutlich werden, dass in diesem dynamischen Umfeld multidisziplinäre Lösungsansätze,
die       Einbindung          verschiedenster            Akteur*innen           und        unterschiedliche
Regelungsinstrumente erforderlich sind.
Da sich das technologische Umfeld ständig verändert und bestehende Initiativen laufend
angepasst werden müssen, kann diese Arbeit nur eine Momentaufnahme darstellen.
Vorschläge für Regelungen wie den Digital Service Act oder den Rechtsrahmen für
Künstliche Intelligenz werden aber bereits berücksichtigt.

1 Vgl. Berger, Mortui vivos docent: Todesdarstellungen in Caesars Bericht über den Gallischen Krieg und ihre
Funktion, Diplomarbeit am Institut für Alte Geschichte an der Karl-Franzens-Universität Graz (2017) 95 f.
2 Vgl. Europäische Kommission, Flash Eurobarometer 464, Briefing Note, Fake news and disinformation online, 2 <

https://europa.eu/eurobarometer/api/deliverable/download/file?deliverableId=65674> (01.08.2021)
3 Vgl. Europäische Kommission, Gemeinsame Mitteilung an das Europäische Parlament und den Rat.

Gmeinemsamer Rahmen für die Abwehr hybrider Bedrohungen – eine Antwort der Europäischen Union, JOIN (2016)
18 endg, 2
                                                                                                                  4
II. WAS IST DESINFORMATION?

Dieser Arbeit liegt die Definition der Europäischen Kommission aus dem „Europäischen
Konzept“ gegen Desinformation zugrunde: Unter Desinformation versteht man
„…nachweislich falsche oder irreführende Informationen, die mit dem Ziel des
wirtschaftlichen Gewinns oder der vorsätzlichen Täuschung der Öffentlichkeit konzipiert,
vorgelegt und verbreitet werden und öffentlichen Schaden anrichten können. Unter
„öffentlichem Schaden“ sind Bedrohungen für die demokratischen politischen Prozesse
und die politische Entscheidungsfindung sowie für öffentliche Güter wie den Schutz der
Gesundheit der EU-Bürgerinnen und -Bürger, der Umwelt und der Sicherheit zu
verstehen. Irrtümer bei der Berichterstattung, Satire und Parodien oder eindeutig
gekennzeichnete parteiliche Nachrichten oder Kommentare sind keine Desinformation.“4

Wichtig ist die Abgrenzung zwischen Desinformation und Falschinformation: Besteht
keine Absicht, die Öffentlichkeit zu täuschen oder zu schädigen und besteht auch keine
Gewinnerzielungsabsicht, spricht man von „Falschinformation“.5
Entscheidend ist also, ob falsche oder irreführende Informationen vorsätzlich verbreitet
werden. Senden sich beispielsweise Freunde oder Familienmitglieder gutgläubig
nachweislich falsche Informationen über die Nebenwirkungen von Impfstoffen zu oder
unterläuft Journalist*innen bei der Recherche oder beim Verfassen eines Textes ein
Fehler, gilt dies nicht als Desinformation.

Was die Abgrenzung von Desinformation und Propaganda betrifft, so besteht der
Unterschied darin, dass sich Wahrheit und Propaganda nicht zwangsläufig ausschließen
müssen: Propaganda ist eine Form „strategischer Kommunikation, der es um die (in der
Regel manipulative und oft verschleierte) systematische Einwirkung auf öffentliche
Überzeugungen         geht.“6     Natürlich     ist   es    möglich,      dass     Desinformation        zu
Propagandazwecken eingesetzt wird, es ist aber keine Voraussetzung.

4 Vgl. Europäische Kommission, Mitteilung der Kommission an das Europäische Parlament, den Rat, den
Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen, Bekämpfung von Desinformation
im Internet: ein europäisches Konzept, KOM (2018) 236 endg, 4
5 Vgl. Europäische Kommission, Gemeinsame Mitteilung an das Europäische Parlament,den Europäischen Rat, den

Rat, den Europäischen Wirtschafts- Und Sozialausschuss und den Ausschuss der Regionen. Bekämpfung von
Desinformation im Zusammenhang mit COVID-19 – Fakten statt Fiktion. JOIN (2020) 8 endg vom 10.06.2020, 4
6 Vgl. Zywietz (et al.), Einführung: Propaganda, Populismus und populistische Propaganda, in Sachs-Hombach,

Zywietz (Hrsg), Fake News, Hashtags & Social Bots (2018) 1 (2)
                                                                                                              5
Die Begriffe „Desinformation“ und „Fake News“ werden oft synonym verwendet. Je nach
Definition beschreiben sie das gleiche Phänomen oder umfassen nur bestimmte
Teilbereiche des jeweils anderen Begriffs: Beispielsweise können mit „Fake News“ nur
Nachrichtenartikel und nicht Informationen im Allgemeinen gemeint sein.7 Anderen
Definitionen zufolge umfassen „Fake News“ auch Satire und Parodien.8 Dazu kommt
noch, dass im alltäglichen Sprachgebrauch oft die Unterscheidung zwischen Falsch- und
Desinformation verschwimmt oder beide Phänomene unter dem Begriff „Fake News“
zusammengefasst werden.
Die Europäische Union spricht fast ausschließlich von „Desinformation“ und legt ihren
Initiativen eine eigene Begriffsdefinition zugrunde. Um Unklarheiten zu vermeiden und um
die Terminologie der Europäischen Union zu übernehmen, wird daher in dieser Arbeit auf
die Verwendung des Begriffs „Fake News“ verzichtet.

7 Vgl. Alcott et al, Social Media and Fake News in the 2016 Election, Journal of Economic Perspectives 2017 Vol. 31
No. 2, (211) 213
8 Vgl. Tandoc et al, Defining „Fake News“: A typology of scholarly definitions, 5f <

https://www.researchgate.net/profile/Rich-
Ling/publication/319383049_Defining_Fake_News_A_typology_of_scholarly_definitions/links/5d021939299bf13a3851
2164/Defining-Fake-News-A-typology-of-scholarly-definitions.pdf> (01.08.2021)
                                                                                                                  6
III. DIE EAST STRATCOM TASK FORCE

Im Kontext der Annexion der Krim-Halbinsel im Jahr 2014 kam es zu einem starken
Anstieg         russischer          Propaganda.9             Dazu         zählten          auch         gezielte
Desinformationskampagnen, die sich im Laufe des Jahres 2015 nicht nur verstärkt gegen
die Ukraine, sondern auch gegen die Europäische Union richteten.10 Um diesen
Desinformationskampagnen entgegen zu wirken, regte der Europäische Rat nach seiner
Tagung im März 2015 an, ein Kommunikationsteam einzusetzen. 11 Noch im selben Jahr
wurde die East Stratcom Task Force ins Leben gerufen.
Am 1. September 2015 nahm die East Stratcom Task Force (Deutsch: Task Force für
strategische Kommunikation Ost), die dem Europäischen Auswärtigen Dienst (EAD)
untersteht, ihre Arbeit auf.12 Sie betreibt eine Website,13 die eine Datenbank mit aktuell
etwa 10.000 Beispielen für Desinformation sowie relevante Publikationen und
Informationen enthält. Alle angeführten Beispiele werden einer Faktenprüfung unterzogen
und enthalten weiterführende Links.
Auch die ursprünglichen Quellen der Desinformation sind nachvollziehbar. Die Website
enthält grafische Darstellungen ganzer Desinformationskampagnen zu bestimmten
Themen über einen längeren Zeitraum hinweg, sodass die Entwicklung einzelner
Narrative nachverfolgt werden kann.14 Zusätzlich wird ein wöchentlicher Newsletter (der
Disinformation       Review)      in    verschiedenen         Sprachen       (darunter      auch     Russisch)
herausgegeben.

Seit 2019 beschränkt sich die Arbeit nicht mehr ausschließlich auf kremlfreundliche
Desinformation, sondern bezieht auch den Westbalkan und die Staaten des Nahen
Ostens, Nordafrikas und der Golfregion mit ein.

9 Vgl. Human Rights Council, Report of the United Nations High Commissioner for Human Rights on the situation of
human rights in Ukraine UN Doc. A/HRC/27/75, 19. September 2014, Ziff. 72.
10 Vgl. Graphica, Secondary Infection, 16 

(26.02.2021)
11 Vgl. Europäischer Rat, Tagung des Europäischen Rates (19. und 20. März 2015) – Schlussfolgerungen, EUCO

11/15, III Ziff. 7.
12 Europäisches Parlament, Anfrage zur schriftlichen Beantwortung E-002156-16 an die Kommission,

https://www.europarl.europa.eu/doceo/document/E-8-2016-002156_DE.html (05.08.2021)
13 https://euvsdisinfo.eu/ (26.02.2021)
14 Vgl. EAD, Timeline: How Russia Built Two Major Disinformation Campaigns,  (28.02.2021).
                                                                                                                   7
Für diese Regionen wurden eigene Task Forces (Task Force für strategische
Kommunikation Westbalkan und Task Force für strategische Kommunikation Süd)
eingerichtet.15
Abgesehen von der Website, die sich gezielt mit Desinformation auseinandersetzt,
definiert der EAD die Tätigkeitsbereiche der East Stratcom Task Force breit und nennt als
ihre Aufgaben unter anderem die Entwicklung von Kommunikationsprodukten und –
kampagnen.16         Diese sollen in den Ländern der Östlichen Partnerschaft (Armenien,
Aserbaidschan, Weißrussland, Georgien, Moldawien und die Ukraine) eingesetzt werden,
um EU-Politiken besser zu erklären.17 Darüber hinaus soll die Medienlandschaft
(insbesondere die Medienfreiheit und unabhängige Medien) in dieser Region gestärkt
werden.18 Wie dies genau geschieht und welche Rolle die East Stratcom Task Force bei
der Kooperation mit Medien in Ländern der Östlichen Partnerschaft spielt, erschließt sich
aus den öffentlich zugänglichen Unterlagen nicht.
Die Abteilung verfügte im Jahr 2020 über ein Budget von 4 Mio. €, das für die
Sensibilisierung für Desinformationskampagnen und deren Überwachung eingesetzt
wurde, unter anderem durch Analysen, Publikationen und Kommunikationskampagnen. 19
Die (finanzielle) Unterstützung von Medien in Drittstaaten wird nicht erwähnt und erfolgt
gemäß einer parlamentarischen Anfrage im deutschen Bundestag über verschiedene
Finanzierungsinstrumente und Budgetlinien des EAD, der Europäischen Kommission und
der     Mitgliedsstaaten.20         So     wurden       etwa      im     Rahmen         des      Europäischen
Nachbarschaftsinstruments21 durch die Initiative „EU4Independent Media“ 11 Mio. € in die
Aufrechterhaltung der Pluralität und Qualität unabhängiger Medien und in die
Verbesserung des Angebots an faktengestützten Inhalten investiert, wobei kommerzielle
Medienunternehmen neben Schulungen auch finanzielle Unterstützung erhielten.22

15 Vgl. Empfehlung (EU) 2019/2115 des Europäischen Parlaments vom 13. März 2019 an den Rat und die
Vizepräsidentin der Kommission und Hohe Vertreterin der Union für Außen- und Sicherheitspolitik zu der
Bestandsaufnahme der Folgemaßnahmen, die zwei Jahre nach dem Bericht des EP über das Thema „Strategische
Kommunikation der EU, um gegen sie gerichteter Propaganda von Dritten entgegenzuwirken“ durch den EAD
ergriffen wurden, lit. w, ABl 2021/C 23/24.
16 Vgl. EAD, „Questions and Answers about the East StratCom Task Force“

 (19.03.2021)
17 Vgl. Ebd (19.03.2021)
18 Vgl. Ebd (19.03.2021)
19 Vgl. Borell, Answer given by High Representative/Vice-President Borrell on behalf of the European Commission,

E-005212/2020(ASW)  (22.04.2021).
20 Bundestagsdrucksache Nr. 18-6168 vom 28.09.2015, Ziff. 41
21 Eingerichtet gem. VO (EU) Nr. 232/2014 des Europäischen Parlaments und des Rates vom 11. März 2014 zur

Schaffung eines Europäischen Nachbarschaftsinstruments, ABl. L 77/27
22 Vgl. GTAI, Zusammenfassung, Regionales ENI-Aktionsprogramm 2020 (Teil 2) für die Region Ost Zulasten des

Gesamthaushaltsplans der Europäischen Union
 (22.04.2021).
                                                                                                                   8
Im Zusammenhang mit dem oben genannten Ziel, EU-Politiken in den Ländern der
östlichen Partnerschaft besser erklären zu wollen, geriet die East Stratcom Task Force in
Kritik.
Auf einer älteren Version ihrer Website fand sich noch die Formulierung, ein „positives
EU-Narrativ“23 schaffen zu wollen, und so sah sie sich häufig mit dem Vorwurf konfrontiert,
Gegenpropaganda zu betreiben.24
Tatsächlich zeigt ein Blick auf die Website der East Stratcom Task Force, dass sie in ihren
Publikationen teilweise selbst den Boden der objektiven Fakten verlässt und stattdessen
mit Werturteilen und Emotionen arbeitet. So heißt es etwa in der Rubrik „Desinformation
im Jahr 2020: Die peinlichsten Momente“:25 „Die Welt konnte kaum aufhören, über
Alexander Lukaschenko, den illegitimen Präsidenten von Belarus, zu lachen…“26, oder
„…der Kreml würde nicht mit der Wimper zucken, bevor er sich zu radikalen Maßnahmen
entschließt…“.27 An anderer Stelle wird gefragt: „Warum haben die kremlfreundlichen
Medien Angst vor Greta? [Thunberg]“28, oder schlicht behauptet: „Den Westen
anzugreifen ist wichtiger, als sich um das Leben und die Gesundheit des russischen
Volkes zu kümmern.“29
Die       East    Stratcom       Task       Force      betreibt      eigenen        Angaben         zufolge      keine
Gegenpropaganda.30 Jedoch wurden auch innerhalb der EU Stimmen laut, die forderten,
im Disinformation Review von beleidigenden Äußerungen und Werturteilen Abstand zu
nehmen und die Kriterien zu überdenken, nach denen dieser Bericht verfasst wird.31

23 Vgl. EAD, „Questions and Answers“, archiviert, zitiert nach Giorio, War on Propaganda or Propaganda War? A case
study of fact-checking and (counter) propaganda in the EEAS project EUvsDisinfo, [42] < http://uu.diva-
portal.org/smash/get/diva2:1252061/FULLTEXT01.pdf> (22.04.2021)
24 Vgl. Giussani, Competing over truth. A critical analysis of EU initiatives to counter disinformation (2015-2019), 20 <

https://ikee.lib.auth.gr/record/318872/files/GRI-2020-27264.pdf> (22.04.2021)
Vgl. Butcher, Disinformation and democracy: The home front in the information war, 15
https://www.epc.eu/content/PDF/2019/190130_Disinformationdemocracy_PB.pdf (03.08.2021)
25 East Stratcom Task Force, Desinformation im Jahr 2020: Die peinlichsten Momente, <

https://euvsdisinfo.eu/de/desinformation-im-jahr-2020-die-peinlichsten-momente/> (23.04.2021)
26 East Stratcom Task Force, Desinformation im Jahr 2020: Die peinlichsten Momente, <

https://euvsdisinfo.eu/de/desinformation-im-jahr-2020-die-peinlichsten-momente/> (23.04.2021)
27 East Stratcom Task Force, Desinformation im Jahr 2020: Die peinlichsten Momente, <

https://euvsdisinfo.eu/de/desinformation-im-jahr-2020-die-peinlichsten-momente/> (23.04.2021)
28 East Stratcom Task Force, Warum haben die kremlfreundlichen Medien Angst vor Greta?,

 (23.04.2021)
29 East Stratcom Task Force, Angriffe auf den Westen bringen Menschen in Russland in Gefahr. <

https://euvsdisinfo.eu/de/angriffe-auf-den-westen-bringen-menschen-in-russland-in-gefahr/> (23.04.2021)
30 Vgl. EAD, Questions and Answers about the East Stratcom Task Force,

https://eeas.europa.eu/headquarters/headquarters-homepage/2116/-questions-and-answers-about-the-east-stratcom-
task-force_en, (23.04.2021).
31 Vgl. Europäisches Parlament, Entschließung des Europäischen Parlaments vom 23. November 2016 zu dem

Thema „Strategische Kommunikation der EU, um gegen sie gerichteter Propaganda von Dritten entgegenzuwirken“
vom 23. November 2016, Ziff 43, ABl C 224/58
                                                                                                                        9
Aktuell beschäftigt die East Stratcom Task Force 16 Mitarbeiter*innen, darunter auch
russischsprachiges Personal,32 verfügt über ein Budget von 4 Mio. € und erreicht 54.115
Follower auf Twitter.33
Dem gegenüber stehen der russische Medienkanal RT sowie die Nachrichtenagentur
Sputnik, von denen ein Hauptteil der russischen Propaganda und Desinformation
ausgeht.34 Sie operieren in über 40 Sprachen35 und mit einem Budget von über
1,1 Mrd. €.36 In den sozialen Medien werden sie dabei von Organisationen wie der Internet
Research Agency (IRA) unterstützt, einer in St. Petersburg angesiedelten und vom Kreml
finanzierten        Organisation.37         Die      rund       1.000 Mitarbeiter*innen38             unterstützen
Desinformationskampagnen, indem sie (gefälschte) Profile sowie Posts und Kommentare
erstellen, um bestimmte Inhalte und Narrative in den sozialen Medien zu fördern.39 Bereits
im Jahr 2015 erreichte die IRA 150 Millionen Menschen über Facebook und Instagram.40
Alleine diese Zahlen zeigen deutlich, dass die Ressourcen und die Reichweite der East
Stratcom Task Force (deren Aktivitäten zudem auf die Staaten der Östlichen
Nachbarschaft, den Westbalkan und die Staaten des Nahen Ostens, Nordafrikas und der
Golfregion ausgeweitet wurden) äußerst begrenzt sind.

32 EAD, Questions and Answers about the East StratCom Task Force,
 (19.03.2021)
33 https://twitter.com/euvsdisinfo?lang=de (24.04.2021)
34 Vgl. Scheidt, The European Union versus External Disinformation Campaigns in the Midst of Information Warfare:

Ready for the Battle? 11  (24.04.2021)
35 Vgl. Staalesen, Free media on the scaffold,

 (25.04.2021)
36 Vgl. Scheidt, Ready for the Battle?, 20  (24.04.2021)
37 Vgl. Vilmer et al, Information Manipulation. A Challenge for our Democracies, Report by the Policy Planning Staff

(CAPS) of the Ministry for Europe and Foreign Affairs and the Institute for Strategic Research (IRSEM) of the Ministry
for the Armed Forces, 84 < https://www.diplomatie.gouv.fr/IMG/pdf/information_manipulation_rvb_cle838736.pdf>
(25.04.2021)
38 Vgl. Stolton, Eu Commission takes aim at disinformation, admits funding deficit <

https://www.euractiv.com/section/digital/news/eu-commission-takes-aim-at-disinformation-admits-funding-deficit/>
(25.04.2021)
39 Vgl. Vilmer et al., Information Manipulation, 85 <

https://www.diplomatie.gouv.fr/IMG/pdf/information_manipulation_rvb_cle838736.pdf> (25.04.2021)
40 Ebd.
                                                                                                                     10
IV.     DIE DATENSCHUTZ-GRUNDVERORDNUNG

A. Allgemeine datenschutzrechtliche Aspekte im Kampf gegen Desinformation

Die Datenschutz-Grundverordnung (DSGVO)41 wurde nach jahrelangen Verhandlungen
im Jahr 2016 erlassen und regelt die Verarbeitung personenbezogener Daten natürlicher
Personen. Ziel war es, durch einheitliche Vorschriften die Fragmentierung im Bereich des
Datenschutzes         zu    überwinden.        Dabei     sollten     ein    einheitliches      und     hohes
Datenschutzniveau gewährleistet und gleichzeitig Hemmnisse für den Verkehr
personenbezogener Daten innerhalb der Europäischen Union beseitigt werden. 42
Obwohl in den Erwägungsgründen der DSGVO nicht direkt auf Desinformation Bezug
genommen wird, können die Regelungen zur Verarbeitung personenbezogener Daten
dennoch die gezielte Verbreitung von Desinformation erschweren. Denn die Wurzel des
Problems liegt nicht zuletzt in der unrechtmäßigen Verarbeitung personenbezogener
Daten, die dazu genutzt werden können, Individuen und Gruppen als Adressaten zu
identifizieren.43
Dabei     wird      ein    dreistufiger    Prozess       durchlaufen,       der    von     der    Erhebung
personenbezogener Daten über die Profilerstellung („Profiling“) bis hin zur gezielten
Ansprache von Einzelpersonen („Microtargeting“) reicht.

1. Erhebung personenbezogener Daten

Personenbezogene Daten sind gemäß DSGVO „alle Informationen, die sich auf eine
identifizierte oder identifizierbare natürliche Person […] beziehen; als identifizierbar wird
eine natürliche Person angesehen, die direkt oder indirekt, insbesondere mittels
Zuordnung zu einer Kennung wie einem Namen, zu einer Kennnummer, zu
Standortdaten, zu einer Online-Kennung oder zu einem oder mehreren besonderen
Merkmalen, die Ausdruck der physischen, physiologischen, genetischen, psychischen,
wirtschaftlichen, kulturellen oder sozialen Identität dieser natürlichen Person sind,
identifiziert werden kann;“ 44

41 Verordnung (EU) 679/2016 des Europäischen Parlaments und des Rates vom 27.April 2016 zum Schutz natürlicher
Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie
95/46/EG (Datenschutz-Grundverordnung), ABl L 2016/119.
42 Vgl. ErwGr 9 VO (EU) 679/2016 ABl L 2016/119.
43 Vgl. EDSB, Stellungnahme des EDSB zu Online-Manipulation und personenbezogenen Daten 2018/3, 27;

Vgl. Ivanova, Can EU Data Protection Legislation Help to Counter “Fake News” and Other Threats to Democracy? in
Katsikas/Zorkadis V. (Hrsg) E-Democracy – Safeguarding Democracy and Human Rights in the Digital Age (2019)
221 (223).
44 Art. 4 Abs. 1 VO (EU) 679/2016 ABl L 2016/119.
                                                                                                             11
Das Erheben personenbezogener Daten gilt nach Art. 4 Abs. 2 DSGVO als Verarbeitung
und    unterliegt     damit    den     Bestimmungen          der    DSGVO.        Daher     müssen       die
Verarbeitungsgrundsätze (Art. 5 DSGVO) eingehalten werden, und die Verarbeitung
muss rechtmäßig erfolgen (Art. 6 DSGVO: Sofern nicht die in Art. 6 Abs. 1 lit. b-f
angeführten Verarbeitungsgründe erfüllt sind, muss die betroffene Person gem. Art. 6
Abs. 1 lit. a ihre Einwilligung zu der Verarbeitung erteilen). Darüber hinaus sind in Artikel 9
besondere Kategorien            personenbezogener Daten definiert, deren Verarbeitung
strengeren      Regeln      unterliegt.     Dazu      zählen       etwa    Daten,     aus     denen      die
rassische/ethnische Herkunft der betroffenen Person oder ihre politischen Meinungen/
ihre religiösen oder weltanschaulichen Überzeugungen hervorgehen.45 Die Verarbeitung
dieser Daten ist grundsätzlich untersagt, sofern nicht eine der in Artikel 9 Abs. 2
angeführten Ausnahmen (unter anderem die ausdrückliche Einwilligung der betroffenen
Person, Art. 9 Abs. 2 lit. a DSGVO) zutrifft. Basiert eine Verarbeitung auf der Einwilligung
der betroffenen Person, kann sie ihre Einwilligung jederzeit widerrufen (Art. 7 Abs. 3
DSGVO).
Im Rahmen von Desinformationskampagnen werden zum Beispiel der geografische
Standort, die Nationalität, die politischen Überzeugungen, das Alter sowie andere
persönliche Merkmale genutzt, um Botschaften auf das Zielpublikum abzustimmen.46 Im
politischen Kontext basiert die gezielte Ansprache von Einzelpersonen meist auf den oben
erwähnten besonderen Kategorien personenbezogener Daten.47 Daher können die in der
DSGVO enthaltenen Einschränkungen bei der Verarbeitung dieser personenbezogenen
Daten als Instrument dienen, um die Verbreitung von Desinformation zu erschweren.

45 Vgl. Art. 9 Abs. 1 VO (EU) 679/2016 ABl L 2016/119.
46 Vgl. Bayer et al., Disinformation and Propaganda – Impact on the Functioning of the Rule of Law in the EU
and Its Member States, 30

(06.02.2021).
47 Vgl. Bayer et al., Disinformation and Propaganda, 60.

(06.02.2021).
                                                                                                           12
2. Profiling

Werden die erhobenen (personenbezogenen) Daten automatisiert verarbeitet, um
persönliche       Aspekte       einer     Person       (zum      Beispiel      Interessen,       Verhalten       oder
wirtschaftliche Lage) zu analysieren oder vorherzusagen, spricht man von „Profiling“.48
Je mehr Nutzerdaten erhoben werden und je länger das Profiling andauert, desto mehr
Rückschlüsse können aus dem Profil, in dem diese Daten zusammenlaufen, gezogen
werden.49 Im Fall des größten Social Media-Anbieters wurden über 52.000 persönliche
Merkmale herangezogen, um eine möglichst genaue Profilerstellung der einzelnen Nutzer
zu ermöglichen.50
Dabei spielen nicht nur demografische Daten wie Alter, Geschlecht oder Wohnort eine
Rolle. Um einen hohen Grad an Personalisierung zu erreichen, werden zunehmend auch
psychografische          Faktoren       miteinbezogen          („psychometrisches            Profiling“).51     Dazu
bedienen sich die Profilersteller durchaus überraschender Methoden: So kann etwa aus
Telefonprotokollen (z. B. Dauer und Anzahl der ein- und ausgehenden Anrufe,
Regelmäßigkeit der Interaktionen, Reaktionszeit) auf den Persönlichkeitstyp geschlossen
werden,52 das Tippverhalten auf der Computertastatur lässt Rückschlüsse auf den
Gefühlszustand (z. B. Nervosität oder Traurigkeit) zu.53
Daten über den psychischen Zustand von Einzelpersonen können auch interessant sein,
um Desinformation gezielt zu verbreiten, da Artikel, die Desinformation enthalten, im
Vergleich zu „echten“ Nachrichten eine signifikant erhöhte Emotionalität aufweisen.54
Sowohl bei den Titeln als auch in den Texten fällt auf, dass negative Emotionen und hier
besonders Empörung und Wut überwiegen.55

48 Vgl Art. 4 Abs. 4 VO (EU) 679/2016 ABl L 2016/119.
49 Vgl. Mondschein, The Regulation of Targeted Behavioural Advertising in the European Union, MCEL Master
Working Paper 2017/2, 11

(16.03.2021)
50 Vgl. EDSB, Stellungnahme des EDSB zu Online-Manipulation und personenbezogenen Daten 2018/3, 10.
51 Vgl. Kertysova, Artificial Intelligence and Disinformation. How AI Changes the Way Disinformation is Produced,

Disseminated, and Can Be Countered, Security and Human Rights 29 (2018), 55 (64).
52 Vgl. De Montjoye, Predicting Personality Using Novel Mobile Phone-Based Metrics. In: Bos (Hrsg), Social

Computing,Behavioral-Cultural Modeling and Prediction, (2013) 48 (51).
53 Vgl. Epp, Identifying emotional states using keystroke dynamics. < https://core.ac.uk/download/pdf/226148502.pdf>

(18.03.2021).
54 Vgl. Paschen, Investigating the emotional appeal of fake news using artificial intelligence and human contributions,

Journal of Product & Brand Management (2019), Vol. 29 No. 2 (2019), 17.
55 Vgl. Paschen, Journal of Product & Brand Management (2019), Vol. 29 No. 2 (2019), 18.
                                                                                                                     13
Artikel 22 Abs. 1 DSGVO regelt das Profiling in Fällen, in denen Entscheidungen
ausschließlich aufgrund einer automatisierten Verarbeitung (= einer automatisierten
Profilerstellung) getroffen werden. Dies ist nicht zulässig, wenn solche Entscheidungen
rechtliche Wirkung für die betroffene Person entfalten oder sie in anderer Weise erheblich
beeinträchtigen. Ausnahmen bestehen für die Erfüllung eines Vertrags, gesetzliche
Vorgaben in Mitgliedsstaaten und in Fällen, in denen die betroffene Person in die
automatisierte Verarbeitung ausdrücklich eingewilligt hat.56
Das bedeutet zunächst, dass weder Profiling-Aktivitäten selbst noch Entscheidungen, die
auf Profiling beruhen, grundsätzlich verboten sind. Wie bei jeder Verarbeitung gelten auch
hier die oben angeführten Regelungen zu Grundsätzen (Artikel 5) und Rechtmäßigkeit
(Artikel 6) der Verarbeitung sowie zu besonderen Kategorien personenbezogener Daten
(Artikel 9).
Wie oben erwähnt, ist die Verarbeitung besonderer Kategorien personenbezogener Daten
im Kontext von politischen Desinformationskampagnen besonders relevant. Auch
Profiling-Aktivitäten, die auf der Verarbeitung solcher Daten beruhen, unterliegen
strengeren Bedingungen: So dürfen besondere Kategorien personenbezogener Daten
grundsätzlich nicht für die Profilerstellung herangezogen werden, es sei denn, es greift
eine der in Artikel 22 Abs. 4 iVm Art. 9 Abs. 2 lit. a oder g angeführten Ausnahmen.
Eine ausschließlich automatisierte Verarbeitung liegt vor, wenn die Entscheidungsfindung
ohne menschliche Intervention erfolgt.57 Beispiele für Fälle, in denen die automatisierte
Verarbeitung rechtliche Wirkung entfaltet, sind unter anderem die Kündigung von
Verträgen oder Entscheidungen über die Gewährung von Sozialleistungen wie
Kindergeld.58 Eine erhebliche Beeinträchtigung ohne direkte rechtliche Auswirkungen
können zum Beispiel die Ablehnung eines Online-Kreditantrags oder Online-
Einstellungsverfahren ohne menschliche Intervention sein.59

Schwieriger zu beantworten ist die Frage, ob auch Desinformationskampagnen, deren
Verbreitung       auf     einer    automatisierten         Profilerstellung       basiert,     eine     erhebliche
Beeinträchtigung für betroffene Personen darstellen können.

56 Art. 22 Abs. 1 lit. a-c VO (EU) 679/2016 ABl L 2016/119.
57 Vgl. Article 29 Working Party, Guidelines on Automated individual decision-making and Profiling for the purposes of
Regulation 2016/679, WP 251, 17/EN, 20 <
https://ec.europa.eu/newsroom/article29/document.cfm?action=display&doc_id=49826> (6.02. 2021).
58 Vgl. Article 29 Working Party, WP 251, 21.
59 Vgl. ErwGr 71 VO (EU) 679/2016 ABl L 2016/119.
                                                                                                                    14
Hierüber lässt sich natürlich keine pauschale Aussage treffen, da dies sowohl vom Inhalt
der Desinformationskampagne als auch davon abhängt, ob die betroffene Person
aufgrund der Desinformation Handlungen oder Unterlassungen setzt.
Dies lässt sich am Beispiel von Impfungen und den Auswirkungen von Desinformation zu
diesem Thema verdeutlichen. Eine im Jahr 2020 veröffentlichte Studie zeigte zum einen,
dass russische Desinformationskampagnen impfkritische Debatten in sozialen Medien
stark beförderten.60 Es konnte aber auch ein weiterer Zusammenhang nachgewiesen
werden – sinkende Impfraten.61 Diese führen wiederum dazu, dass Einzelpersonen nicht
vor Infektionen geschützt und damit einem erhöhten gesundheitlichen Risiko ausgesetzt
sind. In die genannte Studie wurde unter anderem die Impfung gegen Tetanus
miteinbezogen, eine ernste Erkrankung mit einer Sterblichkeitsrate von über 20 %.62
Daher könnte man argumentieren, dass Desinformationskampagnen durchaus erhebliche
Beeinträchtigungen für betroffene Personen darstellen können.
Ähnlich verhält es sich mit Desinformationskampagnen im politischen Kontext und mit
Wahlwerbung. Die Entscheidung für oder gegen Kandidat*innen und Parteien kann
konkrete Auswirkungen in nahezu allen Lebensbereichen nach sich ziehen. Aufgrund der
Tragweite      politischer     Entscheidungen          wird    daher     auch      gefordert,     politisches
Microtargeting (siehe unten), das auf einer automatisierten Profilerstellung basiert, im
Sinn des Art. 22 DSGVO generell als ausschließlich automatisierte Verarbeitung
anzuerkennen, die betroffene Personen erheblich beeinträchtigt.63

3. Microtargeting

Die aus der Profilerstellung gewonnen Erkenntnisse werden in der Folge eingesetzt, um
bestimmte Personen(-gruppen) mit maßgeschneiderten und personalisierten Inhalten
gezielt anzusprechen („Microtargeting“). Dahinter können kommerzielle, politische oder
andere nicht-kommerzielle Akteure stehen. Auch die Mechanismen, durch die Plattformen
sozialer Medien darüber entscheiden, welchem Nutzer welche Inhalte in welcher
Reihenfolge angezeigt werden, können zum Microtargeting gezählt werden.64

60 Vgl. Wilson et al, Social media and vaccine hesitancy, BMJ global health 2020, 1.
61 Vgl. Wilson et al, BMJ global health 2020, 1.
62 Vgl. Bundesministerium für Soziales, Gesundheit, Pflege und Konsumentenschutz,

https://www.sozialministerium.at/Themen/Gesundheit/Uebertragbare-Krankheiten/Infektionskrankheiten-A-Z/Tetanus-
(Wundstarrkrampf).html (24.04.2021); Wilson et al, BMJ global health 2020, 4.
63 Vgl. Bayer et al., Disinformation and Propaganda, 137.
64 Vgl. Ivanova in Katsikas/Zorkadis, E-Democracy, 221 (225).
                                                                                                              15
Microtargeting führte zu einer zunehmenden Personalisierung von Online-Diensten. Dies
bietet den Nutzern durchaus Vorteile, zum Beispiel relevantere Inhalte. Dem stehen aber,
vor allem im politischen Kontext und im Zusammenhang mit Desinformationskampagnen,
auch wesentliche Nachteile wie Diskriminierung, Polarisierung und Manipulation
gegenüber.65

Gemäß Erwägungsgrund 47 DSGVO kann die Verarbeitung personenbezogener Daten
zum Zweck der Direktwerbung als Verarbeitung betrachtet werden, die einem
berechtigten Interesse dient (vgl. Art. 6 Abs. 1 lit. f DSGVO). Somit ist (kommerzielles)
Microtargeting grundsätzlich zulässig, die betroffene Person hat allerdings ein
Widerspruchsrecht.66 Spezifischere Regelungen finden sich in der DSGVO nicht. Da
Microtargeting jedoch auf den zuvor erhobenen personenbezogenen Daten und auf der
Profilerstellung basiert, wirken sich die oben erwähnten Regelungen dieser Bereiche
indirekt auch auf das Microtargeting aus.
Die gezielte Ansprache durch Microtargeting ist natürlich ein entscheidender Faktor für
den Erfolg von Desinformationskampagnen, die in Ermangelung eines aufnahmebereiten
Zielpublikums im Sande verlaufen würden. Die oben beschriebene Profilerstellung erlaubt
es, Desinformation gezielt an solche Einzelpersonen zu verbreiten, die aufgrund
bekannter Charakteristika eher geneigt sind, ihnen Glauben zu schenken.
Eine brasilianische Studie, die russische Desinformationskampagnen auf Facebook im
Zeitraum zwischen 2015 und 2017 untersuchte, konnte deutlich nachweisen, dass diese
Kampagnen im Vergleich zu anderen Anzeigen auf Facebook signifikant erfolgreicher
waren. 67
Sowohl Microtargeting als auch die Profilerstellung basieren, wie oben beschrieben,
letztendlich auf erhobenen personenbezogenen Daten. Daher wird auch argumentiert,
dass     Desinformationskampagnen                 einen      Großteil      ihrer    Effektivität     und         ihres
Bedrohungspotenzials            einbüßen        würden,       wenn       die    unrechtmäßige          Erhebung
personenbezogener Daten gestoppt würde.68

65 Vgl. Ivanova in Katsikas/Zorkadis, E-Democracy, 221 (226).
66 vgl. ErwGr 70, Art. 21 Abs. 2 VO (EU) 679/2016 ABl L 2016/119.
67 Vgl. Ribeiro et al., On Microtargeting Socially Divisive Ads: A Case Study of Russia-Linked Ad Campaigns on

Facebook, 10 < https://arxiv.org/pdf/1808.09218.pdf> (07.03.2021).
68 Vgl. Civil Liberties Union for Europe et al, Informing the misinformation debate, 16 <

https://edri.org/files/online_disinformation.pdf > (08.03.2021).
                                                                                                                    16
B. Datenschutz und Desinformation im Kontext von Wahlen

Die DSGVO gilt grundsätzlich auch für wahlbezogene Datenverarbeitungsvorgänge.
Die Verarbeitung ist unter anderem dann rechtmäßig, wenn sie für die Wahrnehmung
einer Aufgabe erforderlich ist, die im öffentlichen Interesse liegt. 69 Dazu zählt auch die
Erhebung personenbezogener Daten über die politische Einstellung natürlicher Personen
durch politische Parteien im Zusammenhang mit Wahlen, sofern geeignete Garantien
vorgesehen werden.70
Im Kontext von Wahlen werden häufig besondere Kategorien personenbezogener Daten
iSd Art. 9 Abs. 1 DSGVO, aus denen etwa politische oder weltanschauliche
Überzeugungen hervorgehen, verarbeitet.71 Hier gelten die oben erwähnten strengeren
Bestimmungen für die Verarbeitung sowie die in Art. 9 Abs. 2 lit. a-j enthaltenen
Ausnahmeregelungen.
Gemäß lit. d dürfen politische Parteien als politische Vereinigungen diese sensiblen Daten
verarbeiten, wenn sich die Verarbeitung entweder auf Parteimitglieder, ehemalige
Mitglieder oder auf Personen bezieht, die regelmäßige Kontakte mit der Partei
unterhalten. Das bedeutet, dass diese Ausnahmeregelung nicht für die Verarbeitung
personenbezogener Daten potenzieller Mitglieder oder Sympathisanten gilt.
Gemäß dem Grundsatz der Zweckbindung (Art. 5 Abs. 1 lit. b DSGVO) dürfen die
erhobenen Daten nur zu einem Zweck weiterverarbeitet werden, der mit dem
ursprünglichen Verarbeitungszweck vereinbar ist. Daher dürfen Daten, die zum Beispiel
zu kommerziellen Zwecken erhoben wurden, nicht von politischen Parteien im
Zusammenhang mit Wahlen weiterverarbeitet werden.72
Was Desinformationskampagnen betrifft, ist vor allem das politische Microtargeting
problematisch. Wie oben beschrieben, werden bestimmte Personen aufgrund der zuvor
erstellten Profile gezielt angesprochen, um die Verbreitung von Desinformation zu
begünstigen. Im Kontext von Wahlen untergraben solche Eingriffe den öffentlichen
Diskurs und wirken sich auf das Funktionieren des demokratischen Systems insgesamt
aus.73

69 Vgl. Art. 6 Abs. 1 lit. e VO (EU) 679/2016 ABl L 2016/119.
70 Vgl. ErwGr 56 VO (EU) 679/2016 ABl L 2016/119.
71 Europäische Kommission, Leitfaden der Kommission zur Anwendung des EU-Datenschutzrechts im

Zusammenhang mit Wahlen, 4  (14.04.2021)
72 Vgl. Ebd, 7 (14.04.2021).
73 Vgl. Ebd, 1 (14.04.2021).
                                                                                                17
Direktwerbung ist unter der Datenschutzrichtlinie für elektronische Kommunikation74
grundsätzlich zulässig. Voraussetzung für die Rechtmäßigkeit von Direktwerbung ist,
dass der Empfänger seine Einwilligung gibt75 oder (falls er dem werbenden Unternehmen
seine Kontaktdaten bereits als Kunde zur Verfügung gestellt hat) Direktwerbung ablehnen
kann.76
Wie oben bereits erwähnt, ist die Datenverarbeitung zum Zweck der Direktwerbung auch
unter der DSGVO grundsätzlich zulässig.77
Noch nicht geklärt ist, ob das „Voter Microtargeting“, also die gezielte Ansprache von
Wähler*innen, den Bestimmungen über die Direktwerbung unterliegt. Im Entwurf zur
neuen E-Privacy-Verordnung78 wird dieses Thema nun aufgegriffen. Direktwerbung
umfasst hier neben Kommunikation zu gewerblichen Zwecken auch Wahlwerbung
politischer Parteien und Nachrichten anderer Organisationen ohne Erwerbszweck.79 Das
bedeutet, dass Einzelpersonen nur dann nicht-kommerzielle Direktwerbung (also auch
Wahlwerbung) erhalten dürfen, wenn sie hierzu ihre Einwilligung gegeben haben. 80

74 Richtlinie 2002/58/EG des Europäischen Parlaments und des Rates vom 12. Juli 2002 über die Verarbeitung
personenbezogener Daten und den Schutz der Privatsphäre in der elektronischen Kommunikation
(Datenschutzrichtlinie für elektronische Kommunikation), ABl L 2002/201.
75 Vgl. Art. 13 Abs. 1 RL 2002/58/EG.
76 Vgl. Art. 13 Abs. 2 RL 2002/58/EG.
77 Vgl. ErwGr 47 VO (EU) 679/2016 ABl L 2016/119.
78 Vgl. Europäische Kommission, Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates über

die Achtung des Privatlebens und den Schutz personenbezogener Daten in der elektronischen Kommunikation und
zur Aufhebung der Richtlinie2002/58/EG (Verordnung über Privatsphäre und elektronische Kommunikation), KOM
(2017) 10 endg.
79 Vgl. ErwGr 32, KOM (2017) 10 endg.
80 Vgl. Art. 16 Abs. 1 KOM (2017) 10 endg.
                                                                                                               18
V. DAS „EUROPÄISCHE KONZEPT“ GEGEN DESINFORMATION IM
      INTERNET

A. Hochrangige Expert*innengruppe und öffentliche Konsultation

Im Januar 2018 setzte die Kommission eine hochrangige Expert*innengruppe ein, die sich
aus       39       Vertreter*innen          aus       Zivilgesellschaft,          Social-Media-Plattformen,
Medienorganisationen, Journalist*innen und der Wissenschaft zusammensetzte.81 Sie
sollte die Kommission in allen Fragen im Zusammenhang mit der Verbreitung von
Desinformation sowie den daraus folgenden sozialen und politischen Konsequenzen
beraten.82 In ihrem Bericht empfahl die Expert*innengruppe einen multidimensionalen
Ansatz zur Bekämpfung von Desinformation, der (zumindest kurz- bis mittelfristig) auf
freiwilliger Selbstregulierung der Interessensgruppen durch einen Verhaltenskodex
basiert.83 Als Interessensgruppen werden Online-Plattformen, Nachrichtenmedien
(sowohl Presse als auch Rundfunk), Journalist*innen, Faktenchecker*innen, unabhängige
Ersteller*innen von Inhalten sowie die Werbeindustrie genannt.84
Die von der Expert*innengruppe vorgeschlagene Strategie beinhaltet neben der
Selbstregulierung im Wesentlichen fünf Säulen, die folgende Themenbereiche umfassen:
Erhöhte Transparenz von Online-Nachrichten, die Stärkung der Medienkompetenz, die
Entwicklung        von    Instrumenten,         mit    denen      Nachrichtenkonsument*innen                sowie
Journalist*innen Desinformation begegnen können, die Wahrung der Vielfalt und
Nachhaltigkeit         des       europäischen           Medien-Ökosystems               sowie       fortlaufende
Forschungstätigkeit zu den Auswirkungen von Desinformation.85

81 Vgl. Europäische Kommission, Experts appointed to the High-Level Group on Fake News and online disinformation,
https://digital-strategy.ec.europa.eu/en/news/experts-appointed-high-level-group-fake-news-and-online-disinformation
(21.07.2021)
82 Vgl. Europäische Kommission, Generaldirektion Kommunikationsnetze, Inhalte und Technologien, A multi-

dimensional approach to disinformation. Report of the independent High level Group on fake news and online
disinformation, https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=50271, 5 (11.06.2021)
83 Vgl. Ebd, 6 (11.06.2021)
84 Vgl. Ebd (11.06.2021)
85 Vgl. Europäische Kommission, Generaldirektion Kommunikationsnetze, Inhalte und Technologien, A multi-

dimensional approach to disinformation. Report of the independent High level Group on fake news and online
disinformation, , 5f (11.06.2021)
                                                                                                                  19
Zusätzlich zu den Tätigkeiten der Expert*innengruppe wurde im angrenzenden Zeitraum
auch eine Eurobarometer-Umfrage zum Thema Desinformation im Internet durchgeführt,
an der über 26.000 Menschen aus den (damals) 28 Mitgliedsstaaten teilnahmen.86 Dabei
gab die Mehrheit der Befragten an, mindestens einmal pro Woche mit Desinformation
konfrontiert zu sein.87 Das Vertrauen in Nachrichten und Informationen aus Online-Medien
(durchschnittlich 33%) war nur halb so groß wie das Vertrauen, das traditionellen Medien
wie TV, Radio und Printmedien entgegengebracht wurde (durchschnittlich 66 %).88
Interessanterweise bedeutet das aber nicht, dass die Befragten vorrangig Onlinedienste
wie soziale Netzwerke in der Verantwortung sahen, Desinformation im Internet zu
bekämpfen: Diese Aufgabe wurde eher Journalist*innen zugedacht (45 %).89 Was den
öffentlichen Sektor betrifft, so sahen die Befragten die nationalen Regierungsbehörden
deutlich stärker in der Pflicht als EU-Institutionen (39 % zu 21 %).
Im Zeitraum zwischen November 2017 und Februar 2018 wurde außerdem eine
öffentliche Konsultation zum Thema Desinformation durchgeführt, an der sich 2986
natürliche und juristische Personen beteiligten.90 Die Mehrheit der Befragten befürwortete
den Ansatz, Desinformation durch freiwillige Selbstregulierung der Online-Plattformen zu
bekämpfen und verbindliche regulatorische Maßnahmen lediglich als Alternativoption
vorzusehen.

B. Eckpunkte des „Europäischen Konzepts“

Die Ergebnisse des Berichts der hochrangigen Expert*innengruppe und sowie der
Eurobarometer-Umfrage und der öffentlichen Konsultation flossen schließlich in eine
Mitteilung der Europäischen Kommission ein, die im April 2018 veröffentlicht wurde.91
Dieses Dokument bildet die Grundlage für die Initiativen der Europäischen Kommission
und stellt das „Europäische Konzept“ gegen Desinformation im Internet vor:

86 Vgl. Europäische Kommission, Flash Eurobarometer 464, Briefing Note, Fake news and disinformation online, 2 <
https://europa.eu/eurobarometer/api/deliverable/download/file?deliverableId=65674> (11.06.2021)
87 Vgl. Europäische Kommission, Flash Eurobarometer 464, Briefing Note, Fake news and disinformation online, 4 <

https://europa.eu/eurobarometer/api/deliverable/download/file?deliverableId=65674> (11.06.2021)
88 Vgl. Europäische Kommission, Flash Eurobarometer 464, Briefing Note, Fake news and disinformation online, 5 <

https://europa.eu/eurobarometer/api/deliverable/download/file?deliverableId=65674> (11.06.2021)
89 Vgl. Europäische Kommission, Flash Eurobarometer 464, Briefing Note, Fake news and disinformation online, 12 <

https://europa.eu/eurobarometer/api/deliverable/download/file?deliverableId=65674> (11.06.2021)
90 Vgl. Europäische Kommission, Summary report of the public consultation on fake news and online disinformation,

, 1 (16.06.2021)
91 Europäische Kommission, Mitteilung der Kommission an das Europäische Parlament, den Rat, den Europäischen

Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen, Bekämpfung von Desinformation im Internet: ein
europäisches Konzept, KOM (2018) 236 endg vom 26.04.2018
                                                                                                               20
1.) die Kommission versteht die in der Mitteilung vorgeschlagenen Maßnahmen als
Ergänzung zur Datenschutz-Grundverordnung, deren Regelungen – wie oben
beschrieben – die Verbreitung von Desinformation erschweren können.92

2.) die Kommission schlägt die Ausarbeitung eines Verhaltenskodex für Online-
Plattformen vor (siehe unten).93 Dies spiegelt den Ansatz der Selbstregulierung wider, der
von der hochrangigen Expert*innengruppe vorgeschlagen und in der öffentlichen
Konsultation unterstützt wurde.

3.) Das Kernstück der Mitteilung bilden Maßnahmen, die auf vier übergeordneten
Grundsätzen und Zielvorgaben basieren:
Erhöhte Transparenz (Angaben zum Ursprung von Informationen, insbesondere im
Bereich der politischen Werbung), Vielfalt der Informationen                                    (Förderung von
Qualitätsjournalismus und Medienkompetenz), Glaubwürdigkeit der Informationen
(Hinweise        auf     ihre    Zuverlässigkeit         und      Rückverfolgbarkeit)           und      Inklusivität
(Zusammenarbeit der staatlichen und privaten Interessensträger). 94

Hier zeigt sich, dass tatsächlich ein multidimensionaler Ansatz verfolgt wird, der
verschiedenste Akteur*innen miteinbezieht: Die Bereiche der Transparenz und der
Glaubwürdigkeit richten sich hauptsächlich an die Betreiber von Online-Plattformen. Die
Vielfalt von Informationen soll durch die Einbeziehung von Journalist*innen, durch
verschiedene Initiativen auf EU-Ebene (Sachverständigen- und Arbeitsgruppen oder
Initiativen wie #SaferInternet4EU95) sowie durch Anstrengungen der Mitgliedsstaaten
(Bereitstellung von Mitteln für Initiativen im Bildungsbereich, aber auch Beihilfen für
Qualitätsmedien) gefördert werden. Darüber hinaus basiert die Mitteilung auch auf der
Einbindung der Zivilgesellschaft durch die erwähnten Umfragen.

92 KOM (2018) 236 endg, 8
93 KOM (2018) 236 endg, 9
94 KOM (2018) 236 endg, 7
95 Diese Initiative richtet sich an Kinder, Jugendliche, Eltern und Lehrer*innen. Durch Aktivitäten wie Schulungen und

Wettbewerbe soll die Medienkompetenz gefördert und Bewusstsein für Themen wie Desinformation, Cyberbullying
und Radikalisierung geschaffen werden, Vgl. Europäische Kommission, The #SaferInternet4EU Campaign, <
https://ec.europa.eu/digital-single-market/en/news/saferinternet4eu-campaign-0> (21.06.2021)
                                                                                                                     21
Aufbauend auf diesen Grundsätzen wurde eine Reihe von konkreten Maßnahmen
vorgeschlagen. Dazu zählen: Informationen der Online-Plattformen zu strategischen
Verbreitungsmethoden (zum Beispiel durch bezahlte Influencer oder Roboter,
sogenannte „Bots“), die Schließung von Scheinkonten, detaillierte Informationen über
verwendete   Algorithmen,   Einrichtung    von   Netzwerken   aus   Faktenprüfer*innen,
Maßnahmen zur elektronischen Identifizierung sowie die Nutzung neuer Technologien
wie maschinelles Lernen oder Blockchain.
Schließlich betont die Kommission auch die Bedeutung der strategischen Kommunikation
(die durch die oben beschriebene East Stratcom Task Force bereits intensiviert wurde)
und kündigt eine verstärkte Zusammenarbeit mit dem Europäischen Auswärtigen Dienst
an.

                                                                                     22
VI.     NEUE TECHNOLOGIEN UND DESINFORMATION

A. Herausforderungen

Die von der Kommission angekündigten Maßnahmen wurden sowohl auf EU-Ebene als
auch auf Ebene der Mitgliedsstaaten begrüßt.96
Allerdings wurde auch Kritik geäußert und der Kommission ein Mangel an
Dringlichkeitsbewusstsein und Ehrgeiz vorgeworfen.97 Dies betraf etwa die Nutzung neuer
Technologien, die von der EU-Kommission in ihrer Mitteilung zwar angerissen, aber nicht
detailliert beschrieben wurde. Auch innerhalb der EU zeigte man sich besorgt darüber,
dass die EU und ihre Mitgliedsstaaten nur unzureichend auf Desinformationskampagnen
vorbereitet seien, die durch künstliche Intelligenz (KI) losgetreten werden.98 Dabei wird
angenommen, dass sich neue Technologien und Desinformationskampagnen, die diese
Technologien nutzen, zu einem wichtigen Instrument der politischen Kriegsführung
entwickeln werden.99

Systeme künstlicher Intelligenz können genutzt werden, um Desinformation zu verbreiten
(etwa durch Algorithmen, Bots und/oder durch die Manipulation von Bildern, Videos und
Text, also durch sognannte „Deep Fakes“). Sie können aber auch genutzt werden, um
ebendiese Vorgänge zu erkennen und zu bekämpfen. So werden zum Beispiel
Instrumente für automatisches Faktenprüfen entwickelt, und die automatische Analyse
von Bildern und Videos kann helfen, gefälschte Inhalte zu erkennen.100

96 Vgl. etwa Europäischer Wirtschafts- und Sozialausschuss, Stellungnahme des Europäischen Wirtschafts- und
Sozialausschusses zur „Mitteilung der Kommission an das Europäische Parlament, den Rat, den Europäischen
Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen — Bekämpfung von Desinformation im Internet:
ein europäisches Konzept“ ABl 2018/C 440/32, Abs. 1 Ziff 1.3.
Vgl. Europäischer Ausschuss der Regionen, Stellungnahme des Europäischen Ausschusses der Regionen zu dem
Thema „Bekämpfung von Desinformation im Internet: ein europäisches Konzept“ ABl 2019/C 168/04 Ziff. 14,
Vgl. Bundestagsdrucksache Nr. 154/1/18 vom 28.05.2018
97 Vgl. Europäischer Wirtschafts- und Sozialausschuss, ABl 2018/C 440/32, Abs. 1 Ziff 1.4
98 Vgl. Europäischer Ausschuss der Regionen, ABl 2019/C 168/04 Ziff. 11
99 Vgl. Kertysova, Security and Human Rights 29 (2018), 55 (79)
100 Vgl. Austrian Institute of Technology, High-Tech im Kampf gegen Fake News, https://www.ait.ac.at/blog/high-tech-

im-kampf-gegen-fake-news> (05.07.2021)
                                                                                                                   23
Sie können auch lesen