Eine Evaluation der Regeln gegen digitale Bedrohungen - Bundestagswahl 2021 Mauritius Dorn, Sara Bundtzen

 
WEITER LESEN
Eine Evaluation der Regeln gegen digitale Bedrohungen - Bundestagswahl 2021 Mauritius Dorn, Sara Bundtzen
Gefördert durch:

Bundestagswahl 2021
Eine Evaluation der
Regeln gegen digitale
Bedrohungen
Mauritius Dorn, Sara Bundtzen
Autor:innen

Mauritius Dorn
Mauritius Dorn ist Digital Policy Fellow beim ISD
Germany. Er koordiniert digitalpolitische Empfehlungen,
führt Desinformationstrainings durch und koordiniert
Initiativen mit anderen Forschungsorganisationen. Er
unterstützt zudem das Team des Digital Policy Lab (DPL).

Sara Bundtzen
Sara Bundtzen ist Research & Policy Associate beim
ISD Germany. Sie unterstützt die digitalpolitische
Arbeit des Digital Policy Lab (DPL) und untersucht
die Verbreitung von Desinformation und Propaganda
durch staatliche und nichtstaatliche Akteure.

Herausgeberische Verantwortung:
Huberta von Voss, Executive Director ISD Germany

Das Projekt wurde finanziell von Reset Tech
unterstützt. Die inhaltliche Verantwortung liegt
ausschließlich beim ISD Germany.

Copyright © Institute for Strategic Dialogue (2022).
Das Institute for Strategic Dialogue (gGmbH) ist beim
Amtsgericht Berlin-Charlottenburg registriert (HRB 207 328B).
Die Geschäftsführerin ist Huberta von Voss. Die Anschrift lautet:
Postfach 80647, 10006 Berlin. Alle Rechte vorbehalten.

www.isdglobal.org
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen   3

Überblick

Noch nie lief eine Bundestagswahl so digital ab
wie 2021. Damit standen auch die Aktivitäten auf
(und von) großen Online-Plattformen wie Facebook
und Twitter im Fokus des öffentlichen Diskurses.
Ziel dieser Analyse ist es, die Durchsetzung der
Regelwerke gegen die Verbreitung von digitalen
Bedrohungen während der Bundestagswahl 2021 zu
untersuchen, darunter digitale Gewalt, Falsch- und
Desinformationen. Die Ergebnisse der Aufarbeitung
zeigen, dass bestehende nicht-regulative wie regulative
Maßnahmen teilweise unzureichend und fehlerhaft
von den Plattformanbietern durchgesetzt wurden.
Auch die politischen Parteien gaben zwar mehrheitlich
Selbstverpflichtungen ab, jedoch waren diese in
einigen Bereichen nicht ausreichend, um einen fairen
digitalen Wahlkampf zu ermöglichen. Angesichts
der Defizite empfiehlt der Bericht, ambitionierte
Initiativen auf nationaler und europäischer Ebene
zu konkretisieren und auszuweiten. Hier gilt es,
demokratische und pluralistische Debatten im Netz
zu gewährleisten und innovative Lösungsansätze
zu fördern, damit diese tatsächlich stattfinden
können. Gerade systemische Bestrebungen,
basierend auf robusten Transparenzvorschriften
und Sorgfaltspflichten, darunter Anforderungen zur
Risikoanalyse und -minderung, sollten weiter definiert
und gestärkt werden.
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen

Inhaltsverzeichnis

Einleitung                                                                  5
Wie effektiv haben Plattformen die bestehenden Regeln durchgesetzt?         6
   Digitale Gewalt                                                          6
      Netzwerkdurchsetzungsgesetz                                           6
      Gemeinschaftsstandards                                                7
   Falsch- und Desinformationen                                             9
      Verhaltenskodex zur Bekämpfung von Desinformation                     9
      Gemeinschaftsstandards                                                10
   Risiken algorithmischer Empfehlungssysteme                               12
      Verhaltenskodex und Gemeinschaftsstandards                            12
      Medienstaatsvertrag                                                   13
Inwiefern haben Parteien zu einem fairen digitalen Wahlkampf beigetragen?   15
Fazit: Unzureichende und fehlerhafte Durchsetzung                           17
Politischer Ausblick                                                        18
Empfehlungen                                                                21
Endnoten                                                                    23
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen                                                     5

Einleitung

Mit dem Ende der Ära Merkel stand die Bundestagswahl                    Dieser Bericht fokussiert sich auf die Lücken,
2021 wie nie zuvor im Zentrum der Aufmerksamkeit                        Versäumnisse und Grenzen der von den Online-
inländischer wie ausländischer Akteur:innen.                            Plattformen durchgeführten Maßnahmen. Während
Gleichzeitig führte die Corona-Pandemie dazu, dass                      viele Anbieter die Gefahren, die von ihren Diensten
der Wahlkampf mehr im digitalen Debattenraum                            ausgehen, mittlerweile einräumen, verschärft sich die
ausgetragen wurde. Die Aktivitäten auf und von                          digitale Bedrohungslage besonders dort, wo sie durch
Online-Plattformen1 stellen in diesem Kontext ein                       unternehmerische Gewinn-Entscheidungen ermöglicht
besonderes Interesse für Forschende aus Journalismus,                   werden. Einschränkend sei angemerkt, dass sich die
Wissenschaft und Zivilgesellschaft dar.                                 Analysen nur auf eine Auswahl relevanter Plattformen
                                                                        wie Facebook, Twitter und Telegram beziehen, wodurch
In einem breit angelegten Projekt, das von der Initiative               eine aussagekräftige, vergleichende Analyse der
Reset finanziert wurde, analysierte das Institute                       Regeldurchsetzung nur begrenzt möglich war. Der
for Strategic Dialogue (ISD) neben anderen Teams                        limitierte Datenzugang zu Plattformen schränkte die
und Organisationen von Juli bis Dezember 2021 die                       Forschungsgemeinschaft zudem in ihren Möglichkeiten
Verbreitung digitaler Gewalt sowie von Falsch- und                      ein, die Verbreitung problematischer Inhalte auf
Desinformationen. Der vorliegende retrospektive                         verschiedenen Plattformen zu analysieren. Daher
Bericht greift sowohl ISD-Forschungsbefunde als                         empfiehlt dieser Bericht abschließend unter anderem
auch solche anderer Forschungsorganisationen                            eine Ausweitung des Datenzugangs für Forscher:innen.
auf, um die Durchsetzung bestehender Regelwerke
wie dem Netzwerkdurchsetzungsgesetz (NetzDG),                           Ziel dieser Untersuchung ist es, eine Grundlage für die
dem Medienstaatsvertrag, dem Verhaltenskodex                            Weiterentwicklung der nationalen wie europäischen
der Bundestagsparteien zur Bekämpfung von                               Regelungsrahmen zu schaffen, basierend auf kritischen
Desinformation oder den Gemeinschaftsstandards der                      Befunden zur Durchsetzung ausgewählter bestehender
Plattformanbieter zu untersuchen. Die Untersuchung                      Regeln im Kontext der Bundestagswahl 2021.
unterscheidet dabei zwischen folgenden Bereichen:

   1. Digitale Gewalt
   2. Falsch- und Desinformationen
   3. Risiken automatisierter Empfehlungssysteme
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen                                                         6

Wie effektiv haben Plattformen die bestehenden Regeln
durchgesetzt?
Digitale Gewalt                                                         Hass und Hetze gegen Politiker:innen weit verbreitet
                                                                        trotz NetzDG
Digitale Gewalt ist ein Phänomen, das sich mit der
Verbreitung von elektronischen Kommunikationsmitteln                    Analysen des ISD Germany und der
und Online-Plattformen ständig weiterentwickelt und                     Opferschutzorganisation HateAid zeigen, dass die
unterschiedliche Formen annimmt, darunter illegale                      Löschung oder Sperrung rechtswidriger Inhalte
Hassrede. In Deutschland sollen Nutzer:innen vor                        teilweise unzureichend war. Die Auswertung zeigt
digitaler Gewalt auf Plattformen bislang vor allem durch                zudem, dass politische Kandidat:innen vielfach
zwei Regelwerke geschützt werden:                                       hasserfüllten Inhalten ausgesetzt waren, die schädlich,
                                                                        aber nicht rechtswidrig waren.
-d
  as Gesetz zur Verbesserung der
 Rechtsdurchsetzung in sozialen Netzwerken                              -T
                                                                          elegram: Eine Analyse des ISD zeigt, dass neun
 (Netzwerkdurchsetzungsgesetz - NetzDG)2; und                            der jeweils 100 meistgelesenen Beiträge zu den
-d
  ie Gemeinschaftsstandards der Plattformanbieter                       drei Spitzenkandidat:innen (von CDU, SPD und
                                                                         Bündnis 90/Die Grünen) in qualitativ ausgewählten
Netzwerkdurchsetzungsgesetz                                              Telegram-Kanälen des rechtsextremen und
                                                                         verschwörungsaffinen Milieus4 im Zeitraum 1.
Im Kontext der zunehmenden Verbreitung von                               Februar bis 31. Juli 2021 potenziell rechtswidrige
Hasskriminalität im Netz, der Erfahrungen im US-                         Inhalte aufwiesen. In einem Fall wurden Nutzer:innen
Wahlkampf und weitestgehend folgenlose Gespräche                         über Telegram sogar mobilisiert, koordiniert
mit den Plattformanbietern über freiwillige Maßnahmen                    Hasskommentare gegen CDU-Spitzenkandidaten
legte die Bundesregierung 2017 das NetzDG vor.                           Armin Laschet bei Instagram zu verfassen.5
Dieses zielt darauf ab, Hasskriminalität, strafbare
Falschnachrichten und andere strafbare Inhalte auf                      - Twitter: Auswertungen von HateAid für den Zeitraum
den sozialen Netzwerken effektiver zu bekämpfen.                           19. bis 26. August 2021 zeigen, dass Laschet 5.662
Anbieter sozialer Netzwerke3 müssen demnach                                potenziell hasserfüllte Kommentare6 auf Twitter
Beschwerden der Nutzer:innen unverzüglich zur                              erhielt - fünf- bis neunmal häufiger als im Fall der
Kenntnis nehmen und auf strafrechtliche Relevanz                           anderen Spitzenkandidat:innen.7 In dem Zeitraum
prüfen. „Offensichtlich rechtswidrige Inhalte“ müssen                      vom 7. August bis 7. September 2021 waren es 27.476
innerhalb von 24 Stunden gelöscht oder gesperrt                            entsprechende Kommentare. Olaf Scholz (SPD) wurde
werden, jeder rechtswidrige Inhalt innerhalb von sieben                    im selben Zeitraum in 6.690, Annalena Baerbock
Tagen. Außerdem müssen die Anbieter halbjährlich                           (Bündnis 90/Die Grünen) in 5.524 Tweets im Kontext
einen Transparenzbericht vorlegen. Im Jahr 2021 wurde                      mit potenziell beleidigender und verletzender Sprache
das NetzDG novelliert, einige relevante Änderungen                         genannt. Basierend auf einer stichprobenartigen
treten allerdings erst ab Februar 2022 in Kraft (siehe                     rechtlichen Überprüfung von je 100 potenziell
„Politischer Ausblick“).                                                   hasserfüllten Kommentaren zu Laschet, Scholz und
                                                                           Baerbock wurden etwa 7 % als potenziell rechtswidrig
Durchsetzung                                                               eingestuft.8

Mit der gesetzlichen Verpflichtung zur Löschung oder                    Löschung erfolgt nach Gemeinschaftsstandards
Sperrung rechtswidriger Inhalte sehen sich die Anbieter                 trotz NetzDG-Beschwerde
mit der Aufgabe konfrontiert, Abgrenzungen zwischen
der Rechtmäßigkeit und Rechtswidrigkeit gemeldeter                      Analysen der Süddeutschen Zeitung (SZ) sowie
Beiträge innerhalb eines relativ kurzen Zeitraums                       der Initiative Reset und HateAid legen dar, dass
vorzunehmen.                                                            die Löschung oder Sperrung von potenziell
                                                                        „offensichtlich rechtswidrigen Inhalten“ auf Facebook
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen                                                       7

teilweise nicht fristgerecht und häufig auf Basis der                   mehr Transparenz über die Melde- und Reaktionswege
Gemeinschaftsstandards erfolgte, anstatt auf Basis des                  schaffen. Indem Inhalte trotz NetzDG-Beschwerde
NetzDG-Meldeverfahrens. Die untersuchten Inhalte                        auf Grundlage der Gemeinschaftsstandards entfernt
waren vor Beschwerde nach NetzDG von einer Juristin                     werden, umgehen die Anbieter häufig die Erfassung
als rechtswidrig eingestuft worden.                                     von Beschwerden in den Transparenzberichten sowie
                                                                        die im NetzDG festgeschriebene Begründungspflicht.
-E
  in investigatives Projektteam der SZ fand heraus,                    Ursächlich ist ein zweistufiges Meldeverfahren, bei
 dass zwölf von 69 (17,4 %) Facebook-Kommentaren,                       dem gemeldete Inhalte zunächst auf eine Verletzung
 die es nach NetzDG im August 2021 gemeldet hatte,                      der Gemeinschaftsstandards hin und erst bei
 trotz potenzieller Rechtswidrigkeit - unter anderem                    Nichtverletzung nach NetzDG überprüft werden -
 Beleidigungs- und Volksverhetzungstatbestände                          eine Problematik, die bereits im Evaluationsbericht
 - auch eine Woche nach Meldezeitpunkt immer                            der Bundesregierung Erwähnung fand.11 Im jüngsten
 noch nicht gelöscht oder gesperrt waren.                               Transparenzbericht von Facebook für den Zeitraum
 Außerdem wurden die Kommentare in den meisten                          1. Januar bis 30. Juni 2021 wurden 77.671 NetzDG-
 Fällen mit der Begründung gelöscht, dass sie die                       Beschwerden dokumentiert, in denen insgesamt
 Gemeinschaftsstandards verletzen würden. Die                           67.028 Inhalte genannt wurden12 - ein massiver Anstieg
 Kommentare richteten sich gegen eine Politikerin von                   um 1.844 %.13 Dieser ist jedoch vermutlich eher auf
 Bündnis 90/Die Grünen.9                                                ein neues allgemein zugängliches Meldeformular
                                                                        zurückzuführen als auf eine gestiegene Bereitschaft der
-E
  in ähnliches Experiment von HateAid und Reset                        Plattformen, demokratieschädigende Inhalte zeitnah
 zeigt, dass von den 100 potenziell „offensichtlich                     und nachhaltig zu entfernen.
 rechtswidrigen“ Kommentaren, die nach NetzDG im
 Vorfeld der Bundestagswahl 2021 gemeldet wurden,                       Während das NetzDG die Anbieter dazu verpflichtet,
 Facebook in gar 33 Fällen befand, dass kein Verstoß                    rechtswidrige Inhalte nach Beschwerde der
 vorläge. Fast alle übrigen Kommentare wurden mit                       Nutzer:innen zu löschen oder zu sperren, obliegt
 Verweis auf die eigenen Gemeinschaftsstandards                         die Bekämpfung legaler, aber dennoch hasserfüllter
 gelöscht. Insbesondere Inhalte, die sich gegen                         und problematischer Inhalte wiederum den
 hochrangige Politiker:innen richteten, /werden in den                  Gemeinschaftsstandards.
 seltensten Fällen entfernt.10
                                                                        Gemeinschaftsstandards
Selbst wenn Anbieter alle gemeldeten potenziell
rechtswidrigen Inhalte fristgerecht nach NetzDG                         Die meisten Plattformen verfügen mittlerweile
oder Gemeinschaftsstandards löschen oder                                über umfassende Hausregeln - sogenannte
sperren würden, würde dies nicht bedeuten, dass                         Gemeinschaftsstandards (engl.: Community
Hasskriminalität von den Plattformen verschwindet.                      Standards)- die festlegen, welche Inhalte und
Im Experiment von Reset und HateAid waren die                           welches Verhalten erlaubt oder nicht erlaubt sind,
100 selektierten Inhalte zum Meldezeitpunkt                             insbesondere hinsichtlich der Formen digitaler Gewalt
beispielsweise im Schnitt bereits seit 409 Tagen                        und Hassrede. Die Gemeinschaftsstandards sind in
online. Aufgrund des im NetzDG vorgesehenen                             der Regel in den Nutzungsbedingungen (engl.: Terms
„Notice and take down“-Verfahrens muss eine Prüfung                     of Service) der Anbieter dargelegt. Nach einem Urteil
durch die Anbieter jedoch erst nach Meldung durch                       des Bundesgerichtshofs im Juli 2021 dürfen sie dabei
die Nutzer:innen erfolgen. Da die Anbieter keine                        auch legale Inhalte verbieten.14 Allerdings müssen
Nachforschungspflicht trifft, ist entscheidend, dass                    die Anbieter die betroffenen Nutzer:innen über ihre
Nutzer:innen den Anbietern rechtswidrige Inhalte auf                    Entscheidungen angemessen informieren. Hinsichtlich
eine nutzerfreundliche Art übermitteln können, damit                    digitaler Gewalt wird in den Gemeinschaftsstandards
diese davon Kenntnis erlangen. Anbieter sollten ihrer                   gemeinhin zwischen Hassrede, Gewalt und
Verantwortung beim Umgang mit Beschwerden zu                            Anstiftung zu Gewalt sowie Belästigung und Mobbing
rechtswidrigen Inhalten gerecht werden und insofern                     unterschieden, wobei Hassrede bereits in vielen
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen                                                        8

Fällen abdeckt, was auch nach dem NetzDG potenziell                         wurden, die sich gegen 60 Bundestagskandidat:innen
rechtswidrig ist. Dennoch gibt es Bereiche, in denen                        richten. Dabei finden sich Verschwörungsmythen,
die Gemeinschaftsstandards hinter dem gesetzlichen                          Fremdenfeindlichkeit, Rassismus, Sexismus
Rahmen zurückbleiben. Die Standards enthalten                               und LGBTQ-Feindlichkeit in einer Stichprobe
in den meisten Fällen auch Regeln für gefährliche                           der meistgeteilten Tweets. Die untersuchten
Gruppen und Personen, die aber in diesem Bericht nicht                      Kandidat:innen repräsentieren unterschiedliche
berücksichtigt werden.                                                      Identitäten im Hinblick auf Gender, Sexualität,
                                                                            ethnische Zugehörigkeit, Migrationshintergrund und
Durchsetzung                                                                Parteizugehörigkeit.19

Bei der Erkennung und Entfernung unzulässiger                           Dass die Durchsetzung der
Inhalte setzen die Plattformanbieter sowohl auf die                     Gemeinschaftsstandards unzureichend und
Meldung durch Nutzer:innen, als auch verstärkt auf                      teilweise selektiv erfolgt, zeigt, dass eine
automatisierte Erkennungssysteme. Facebook selbst                       weitgehend unbeaufsichtigte und intransparente
gibt an, von April bis Juni 2021 weltweit 31,5 Millionen                Durchsetzung der Gemeinschaftsstandards
Inhalte von Facebook entfernt zu haben, weil diese                      das Problem der digitalen Gewalt nicht effektiv
gegen die Richtlinien zu Hassrede verstoßen hätten                      bewältigt. Die Veröffentlichung Facebook-interner
(oder verstießen). Knapp 98 % von ihnen sollen                          Dokumente, Studien und Memos belegt zudem, dass
dabei sogar eigenständig vor einer Meldung durch                        Facebook Länder kategorisierte und solche in der
Nutzer:innen entfernt worden sein.15                                    höchsten Prioritätsstufe, wie die Vereinigten Staaten,
                                                                        bei der Bekämpfung von Hassrede bevorzugte. 84 %
Unzureichende und selektive Durchsetzung der                            des Zeitbudgets für die Löschung und Eindämmung
Gemeinschaftsstandards                                                  von Desinformation sollten demnach bewusst auf den
                                                                        US-Markt entfallen.20 Bisher widersprechen Anbieter wie
Analysen der SZ, HateAid und Reset sowie des ISD                        Facebook jedoch solchen Erkenntnissen und verweisen
offenbaren Defizite bei der Entfernung von Inhalten, die                auf die Wirksamkeit ihrer meist automatisierten
offensichtlich gegen die Gemeinschaftsstandards der                     Erkennungs- und Entfernungssysteme.
Anbieter verstoßen.
                                                                        Künstliche Intelligenz doch nicht so wirksam wie
- Facebook: In einer Untersuchung der SZ vom                           erhofft?
   1. September 2021 waren 11 von 70 (15,7 %)
   Facebook-Kommentaren, die wegen offensichtlicher                     Auch im Vorfeld der Bundestagswahl 2021
   Verletzung der Gemeinschaftsstandards gemeldet                       verwiesen die Plattformanbieter abermals auf ihre
   worden waren, auch eine Woche nach Meldung                           technologischen Ressourcen. So gab YouTube an, 94
   noch weiterhin zugänglich. In 56 Fällen antwortete                   % der Inhalte mit Richtlinienverstößen im Netzwerk
   Facebook innerhalb einer Woche.16 In einem                           durch automatische Meldungen zu erkennen.21 Laut
   ähnlichen Experiment von HateAid und Reset                           Johannes Baldauf, Public Policy Manager bei Facebook
   wurden nur 50 % der aufgrund einer offensichtlichen                  Deutschland, sei Facebook sogar „Vorreiter im Einsatz
   Verletzung der Gemeinschaftsstandards - unter                        künstlicher Intelligenz, um unzulässige Inhalte zu
   anderem der Hassrede-Richtlinie - gemeldeten                         erkennen und schneller zu erkennen.“22
   Kommentare auf öffentlichen Seiten der AfD gelöscht,
   darunter zahlreiche Kommentare, die sich gegen                       Die Enthüllungen der Whistleblowerin Frances
   Kandidat:innen richteten.17                                          Haugen stellen diese Äußerungen in Frage. So
                                                                        schrieb ein leitender Facebook-Ingenieur bereits
- Twitter: Eine gemeinsame Analyse von ISD                             Mitte 2019, dass Facebooks automatisierte Systeme
   Germany und HateAid kommt zu dem Ergebnis,                           Beiträge von der Plattform nahmen, die nur 2 % der
   dass im Zeitraum 1. bis 30. September 2021 10.592                    Aufrufe richtlinienwidriger Hassrede generierten.
   potenziell hasserfüllte Tweets18 veröffentlicht                      Im März 2021 kam ein anderes Team zu einer
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen                                                        9

ähnlichen Schlussfolgerung und schätzte, dass die                       den die Europäische Kommission initiiert hatte.
automatisierten Systeme nur Beiträge entfernten, die 3                  Basierend auf der Definition von Desinformation der
bis 5 % der Aufrufe von Hassrede ausmachten, und 0,6                    Kommission - diese Definition verwendet auch James
% aller Inhalte, die gegen die Richtlinien gegen Gewalt                 Pamment - umfasst der CoPD freiwillige Standards
und Aufwiegelung verstießen. Facebook entgegnete,                       und Verpflichtungen, die die Verbreitung von
dass sich diese Prozentsätze nur auf Beiträge bezögen,                  Desinformationen in folgenden Bereichen eindämmen
die mithilfe von Künstlicher Intelligenz entfernt wurden                sollen: Stärkung der Forschungsgemeinschaft,
und keine anderen Maßnahmen berücksichtigten wie                        Kontrolle der Anzeigenschaltung, politische und
zum Beispiel ein niedrigeres Ranking im NewsFeed.23                     themenbezogene Werbung, Integrität der Dienste
Während automatisierte Moderation von Inhalten                          und Stärkung der Verbraucher:innen. Inzwischen sind
skalierbar und schnell arbeitet, steigen gleichzeitig                   weitere Anbieter dem Kodex beigetreten. Nachdem
die Risiken der Beschränkungen der Meinungsfreiheit.                    die Kommission im Mai 2021 Leitlinien für die
Förderung menschlicher Moderator:innen mit                              Stärkung des Kodex herausgegeben hatte, planen die
regionalen und nationalen Kontextwissen für                             unterzeichnenden Unternehmen und Organisationen
umsichtige Einzelfallentscheidungen bleibt ein                          die Vorlage einer überarbeiteten Version bis Ende 2021
zentraler Aspekt von Regulierungsbemühungen.                            (siehe Abschnitt „Politischer Ausblick“).

Falsch- und Desinformationen                                            Durchsetzung

Nach wie vor ist der Begriff „Desinformation“ nicht                     Bereits im Kontext der Europawahl 2019 evaluierte
eindeutig definiert, was die Erarbeitung effektiver                     das ISD den CoPD. Dabei konnte nachgewiesen
Regelwerke erschwert. Desinformationsexperte                            werden, dass der Kodex zwar zu Verbesserungen
James Pamment von der Universität Lund schlägt                          insbesondere bei der Transparenz politischer Werbung
die Verwendung folgender Begrifflichkeiten vor:                         geführt hatte. Gleichzeitig wurde aber auch deutlich,
Falschinformation, Desinformation, Einflussoperation                    dass aufgrund des selbstregulativen Ansatzes, bei
und ausländische Beeinflussung. Falschinformation                       dem keine Konsequenzen bei Nichteinhaltung
meint dabei eine falsche Information, die eine                          drohen, kaum substantielle Veränderungen erreicht
Einzelperson ohne Absicht der Irreführung verbreitet.                   werden konnten.26 Nachfolgende Erkenntnisse
Desinformation bezieht sich wiederum auf einen                          unterstreichen die bereits festgestellten Mängel.
nachweislich falschen Inhalt, der zum wirtschaftlichen                  Die Kontrolle der Anzeigenschaltung wurde in der
Vorteil oder zur absichtlichen Täuschung der                            Analyse nicht berücksichtigt. Die Bestimmungen zu
Öffentlichkeit erstellt, präsentiert und verbreitet wird,               Algorithmen werden im Abschnitt „Algorithmische
und der der Öffentlichkeit Schaden zufügen kann.24                      Empfehlungssysteme“ genauer untersucht.
In Deutschland sollen Nutzer:innen vor Falsch- und
Desinformationen auf den Plattformen vor allem durch                    Stärkung der Forschungsgemeinschaft
den europäischen Verhaltenskodex zur Bekämpfung
von Desinformationen und (daraus resultierende)                         - Facebook: Obwohl sich Facebook als Unterzeichner
Gemeinschaftsstandards geschützt werden. Aber auch                         des CoPD dazu bekannt hat, gewissenhafte Forschung
das NetzDG bietet Schutz vor ehrverletzenden Delikten                      zu Desinformation und politischer Werbung
wie beispielsweise Verleumdung.                                            nicht zu verbieten oder zu entmutigen - ja sogar
                                                                           derartige Forschungszwecke proaktiv zu fördern
Verhaltenskodex zur Bekämpfung von                                         - wurde das Projekt Ad Observer der New York
Desinformation                                                             University (NYU) im Kontext der Bundestagswahl
                                                                           2021 unterbunden. Die Forscher:innen wollten
Im Jahr 2018 haben unter anderem Facebook,                                 analysieren, wem Facebook wann welche politischen
Google, Twitter und TikTok den Verhaltenskodex                             Anzeigen anzeigt, um damit Erkenntnisse über die
zur Bekämpfung von Desinformation (engl.: Code of                          Verbreitung von Falschinformationen zu sammeln.
Practice on Disinformation - CoPD)25 unterzeichnet,                        Facebook begründete die Sperrung von Konten und
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen                                                   10

  Datenzugang mit einer Anordnung der Federal Trade                     Stärkung der Verbraucher:innen
  Commission (FTC) zum Schutz der Privatsphäre der
  Nutzer:innen. Die FTC dementierte diese Sichtweise                    -T
                                                                          ikTok: Dieselbe Analyse von Mozilla zeigt,
  jedoch.27 Die Organisation AlgorithmWatch sah sich                     dass TikToks automatisierte Info-Banner zur
  im Juli 2021 ebenfalls gezwungen, ein Datenspende-                     Bundestagswahl 2021 teilweise nicht wirkungsvoll
  Projekt zu dem Newsfeed-Algorithmus von Instagram                      waren. Zwar hatte der Anbieter ab dem 20. Juli 2021
  zu beenden, um nicht zu riskieren, von Facebook                        über bestimmten Videos ein Banner eingeblendet, das
  verklagt zu werden. Facebook argumentierte, das                        mit einem Link zu einer Informationsseite versehen
  Projekt verstoße gegen die Nutzungsbedingungen,                        war. In der Praxis wurden die Info-Banner jedoch nur
  die die automatisierte Erfassung von Daten verbieten                   für einzelne Schlagwörter und Hashtags wie #SPD
  und drohte „formellere Schritte“ einzuleiten.                          oder #AfD automatisiert eingeblendet, die auch
  Allerdings hatten die Datenspender:innen nur auf                       nicht-wahlbezogene Inhalte einbezogen, andere
  ihren eigenen Feed zugegriffen und die Inhalte                         relevante politische Inhalte wiederum nicht. So waren
  freiwillig und zu Forschungszwecken über ein                           beispielsweise die allermeisten Videos der Accounts
  Datenspende Add-On mitgeteilt.28                                       der Parteien AfD und die LINKE im Vorfeld der Wahl
                                                                         nicht gekennzeichnet, da sie keine der definierten
Politische Werbung und themenbezogene Werbung                            Schlagwörter oder Hashtags aufwiesen. Dies
                                                                         unterminiert die Bemühungen, vertrauenswürdige
-F
  acebook: Eine Recherche des ZDF Magazins Royale                       Informationsquellen anzubieten.32
 - gemeinsam mit der Initiative Who Targets Me -
 analysierte von April bis September 2021 mittels der                   Die Fallbeispiele zeigen, dass Maßnahmen wie
 Datenspenden von mehr als 17.000 Nutzer:innen                          Facebooks Werbebibliothek oder der Info-Banner
 134.000 maßgeschneiderte Werbeanzeigen.                                von TikTok in der Praxis oft mangelhaft umgesetzt
 Die Analyse weist unter Verwendung einer                               wurden. Bei der Stärkung der Forschungsgemeinschaft
 alternativen Werbebibliothek nach, dass tausende                       erweisen sich wiederum Bedenken hinsichtlich des
 der geschalteten politischen Werbeanzeigen in                          Schutzes der Privatsphäre als größere Herausforderung.
 Facebooks Werbebibliothek fehlten. Darunter                            Bekenntnisse zum Vorgehen gegen Fake-Accounts
 befanden sich insbesondere auch Werbeanzeigen                          wurden stellenweise nicht erfüllt. Da der CoPD auf
 von Parteien, der Bundesregierung sowie von                            inhaltlicher Ebene kaum Regeln beinhaltet, wird der
 Ministerien. Die Projektverantwortlichen warfen in                     Umgang mit Falschinformationen vor allem durch die
 der Folge Facebook grobe Fehleinschätzungen bei der                    Gemeinschaftsstandards geregelt.
 Einstufung von Werbeanzeigen vor.29 Eine Analyse des
 Recherchezentrums CORRECTIV zeigt zudem, dass bei                      Gemeinschaftsstandards
 der Sperrung politischer Werbung teilweise selektiv
 und nicht konsequent vorgegangen wurde.30                              Unter Falschinformationen fassen die Plattformanbieter
                                                                        in ihren Gemeinschaftsstandards gemeinhin
Integrität der Dienste                                                  Meldungen, die von externen Faktenprüfer:innen
                                                                        als falsch eingestuft wurden. Die meisten als
-T
  ikTok: Als Unterzeichner des CoPD erkennt                            falsch eingestuften Inhalte werden nicht von
 TikTok an, wie wichtig es ist, die Bemühungen zur                      den Plattformen entfernt, sondern lediglich
 Schließung von Fake-Accounts zu intensivieren.                         weniger stark verbreitet, indem sie weiter unten
 Eine Untersuchung der Internetfirma Mozilla legt                       im News Feed anzeigt werden. Dennoch existieren
 jedoch dar, dass während der Bundestagswahl 2021                       Ausnahmen. Beispielsweise entfernen Facebook
 gefälschte Konten mit politisch-propagandistischen                     und Instagram Falschinformationen, die gegen
 Inhalten tausende Nutzer:innen erreichten. So gab es                   Gemeinschaftsstandards verstoßen - darunter
 unter anderem einen gefälschten TikTok Account (@                      Inhalte über den Wahlprozess, die Menschen von
 derbundestag) mit 14,1K Followern und 130,8K Likes,                    der Stimmabgabe abhalten könnten.33 Auf Twitter
 der AfD-Politiker:innen prominent herausstellte.31                     besteht für falsche oder irreführende Inhalte gegen
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen                                                      11

die Integrität staatsbürgerlicher Prozesse ebenfalls                        des verschwörungsideologischen Milieus,
die Möglichkeit zur Entfernung.34 Auf YouTube sind                          Desinformationen mit einer großen Öffentlichkeit zu
zudem auch Falschinformationen zur Wählbarkeit                              teilen. Dabei waren die Manipulation von Umfragen,
von Kandidat:innen nicht erlaubt.35 TikTok untersagt                        Handlungsanweisungen zu „Shitstorming“ gegenüber
zusätzlich sogar bestimmte verschwörungsideologische                        Behörden und Institutionen sowie die Erstellung
Inhalte36, während Facebook keine Inhalte von                               eigener Umfragen im Kontrast zu repräsentativen
Politiker:innen prüfte. Anders als in der Vorwoche der                      Erhebungen wiederkehrende Elemente der
US-Wahl 2020, sahen die meisten anderen Anbieter                            Kommunikation.41
keine Sonderrechte vor und moderierten sämtliche
Inhalte auf Basis ihrer Standards. Laut Facebook                        -F
                                                                          acebook: Forscher:innen des ISD fanden
erhalten durch Politiker:innen geteilte und zuvor als                    zudem heraus, dass insgesamt 21 der jeweils
falsch eingestufte Inhalte eine geringere Verbreitung im                 100 meistgeteilten öffentlichen Beiträge zu
News Feed.                                                               den drei Spitzenkandidat:innen aus 58.858
                                                                         Facebook-Beiträgen vom 1. Februar bis 1. Juli
Durchsetzung                                                             2021 Falschinformationen oder Anspielungen auf
                                                                         Verschwörungserzählungen enthielten. Dabei war
Im Umgang mit Falschinformationen setzen die                             Annalena Baerbock mit 18 Beiträgen im Vergleich
Anbieter sozialer Netzwerke vor allem auf die                            zu Olaf Scholz und Armin Laschet deutlich
Zusammenarbeit mit externen Faktenprüfer:innen. So                       häufiger Ziel von Verschwörungsmythen, Des- und
arbeitet Facebook in Deutschland beispielsweise seit                     Falschinformationen.42 Eine Studie des Sustainable
einigen Jahren mit den Nachrichtenagenturen AFP, DPA                     Computing Lab (SCL) und der Wirtschaftsuniversität
und dem Recherchezentrum CORRECTIV zusammen.37                           Wien (WU) zeigt außerdem, dass etwa 6,7 % aller
TikTok hingegen startete seine Zusammenarbeit                            Facebook-Beiträge vom 15. bis 31. März 2021 mit
mit externen Faktenprüfer:innen erst wenige                              Schlagwort- beziehungsweise Hashtag-Bezug zur
Wochen vor der Bundestagswahl 2021.38 Nachdem                            Bundestagswahl 2021 potenziell rechtswidrige
Faktenprüfer:innen einen Inhalt identifiziert und geprüft                Inhalte, Desinformation oder Verletzungen des
haben, wird dieser in der Regel mit einem Hinweis bzw.                   Wahlrechts darstellten. Dabei waren mehr als 90 %
Label versehen und seine Verbreitung eingeschränkt.                      der Inhalte Desinformationen, etwa 35 % verstießen
                                                                         gegen die Gemeinschaftsstandards und 4 % waren
Gemeinschaftsstandards bieten kaum Schutz vor                            wahrscheinlich rechtswidrig im Sinne der Tatbestände
Falschinformationen                                                      des Strafgesetzbuchs.43

-T
  elegram: Eine Untersuchung des ISD Germany                           -T
                                                                          witter: Für Twitter analysiert dieselbe Studie von SCL
 zeigt, dass die jeweils 100 meistgelesenen Beiträge                     und WU, dass etwa 5,6 % aller wahlbezogenen Tweets
 zu den drei Spitzenkandidat:innen aus qualitativ                        vom 15. bis 31. März 2021 problematisch waren.
 ausgewählten Telegram-Kanälen des rechtsextremen                        Von den als problematisch identifizierten Inhalten
 und verschwörungsaffinen Milieus39 im Zeitraum                          weisen alle Desinformationen auf, 14,5 % verstießen
 1. Februar bis 31. Juli 2021 zu einem hohen Anteil                      gleichzeitig gegen die Gemeinschaftsstandards.44
 Falschinformationen oder Anspielungen auf                               Im Zuge der Landtagswahl in Sachsen-Anhalt am 6.
 Verschwörungserzählungen enthielten: 43 der                             Juni 2021 beobachtete das Team von ISD Germany
 Posts über Baerbock (Bündnis 90/Die Grünen), 26                         deutschsprachige Beiträge in den sozialen Medien,
 der Posts über Laschet (CDU) und 17 der Posts über                      vor allem auf Twitter und Facebook. So stieg
 Scholz (SPD).40 Das Bedrohungspotenzial, das von                        beispielsweise die Anzahl von Beiträgen mit dem
 Verschwörungsideolog:innen auf Telegram ausgeht,                        Hashtag #Wahlbetrug, der in den Tagen vor der
 wird auch in einer Analyse des Center für Monitoring,                   Wahl erst wenige Male genutzt worden war, nach
 Analyse und Strategie (CeMAS) erkenntlich.                              Verkündung der ersten Hochrechnungen deutlich: der
 Die analysierten Telegramkanäle ermöglichten                            Hashtag wurde innerhalb von 24 Stunden 4.860-mal
 es unter anderem zentralen Akteur:innen                                 und im Zeitraum 1. Juni bis 14. Juni 2021 6.480-mal
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen                                                      12

  verwendet. Neben Twitter wurden Desinformationen                      Risiken algorithmischer
  über die Wahl auch über Facebook, Telegram oder
  Bitchute, sowie über die Blogs und Newsletter rechter
                                                                        Empfehlungssysteme
  Influencer wie Roland Tichy, Boris Reitschuster und
                                                                        Beiträge und Kommentare auf großen Online-
  Oliver Janich verbreitet.45
                                                                        Plattformen werden durch algorithmische
                                                                        Empfehlungssysteme priorisiert und dargestellt.
Nachweislich falsche Inhalte ohne Warnhinweise auf
                                                                        Sie treffen eine grundlegende Auswahl großer
Facebook ersichtlich
                                                                        Informationsmengen und sortieren diese nach
                                                                        Kriterien so, dass möglichst relevante Informationen
- F orscher.innen der Bewegung Avaaz fanden heraus,
                                                                        zuerst angezeigt werden.48 Damit kommt den
  dass mehr als 50 % der 137 Facebook-Beiträge
                                                                        Empfehlungssystemen eine elementare Rolle bei der
  vom 1. Mai bis 31. Juli 2021, die von unabhängigen
                                                                        Verbreitung und Verstärkung problematischer Inhalte
  Faktenprüfer:innen als falsch eingestufte Narrative
                                                                        auf den Plattformen zu. Bisher wurden für Deutschland
  über Annalena Baerbock enthielten, ohne
                                                                        kaum Regeln eingeführt, die Empfehlungssysteme
  Warnhinweise ersichtlich blieben. Dabei waren
                                                                        regulieren. Dennoch enthalten der CoPD und die
  nahezu identische Beiträge manchmal mit und
                                                                        Gemeinschaftsstandards sowie der Medienstaatsvertrag
  manchmal ohne Warnhinweis versehen - ein Indiz für
                                                                        bereits einzelne Bestimmungen zu Priorisierung und
  unzureichende Erkennungssysteme, bei denen auch
                                                                        Transparenz.
  KI zum Einsatz kommt.46
                                                                        Verhaltenskodex und Gemeinschaftsstandards
-E
  ine Untersuchung des ISD legt zudem dar, dass
 Beiträge vom 1. Januar 2020 bis 13. Juni 2021, die
                                                                        Die Unterzeichner des CoPD49 verpflichten sich
 die Allianz der Weltärzte (WDA) oder ihre Mitglieder
                                                                        dazu, in Technologien zu investieren, um relevante,
 erwähnten und bereits als falsch eingestufte, auf
                                                                        authentische und maßgebliche Informationen -
 Deutsch verfasste Narrative beinhalteten, seltener mit
                                                                        wo möglich - in der Suche, in Feeds oder anderen
 einem Warnhinweis versehen waren als Beiträge auf
                                                                        automatisch geordneten Verbreitungskanälen zu
 Englisch. Dabei unterschieden sich die Beiträge oft nur
                                                                        priorisieren. Darüber hinaus geben die meisten Anbieter
 marginal von bereits mit einem Hinweis versehenen
                                                                        großer Plattformen in ihren Gemeinschaftsstandards
 Beiträgen. Darüber hinaus fanden die Forscher:innen
                                                                        an, die Verbreitung problematischer Inhalte wie
 heraus, dass auch mit einem Warnhinweis versehene
                                                                        entlarvte Falschinformationen zu verringern.50 YouTube
 Beiträge immer noch zehn- oder hunderttausende
                                                                        verweist sogar darauf, dass 2019 Änderungen an den
 Aufrufe erhielten.47
                                                                        Empfehlungssystemen eingeführt wurden, um die
                                                                        Verbreitung problematischer Falschinformationen
Die Fallbeispiele veranschaulichen, dass
                                                                        und grenzwertiger Inhalte zu begrenzen.51 Im CoPD
Falschinformationen im Kontext der
                                                                        legen sich die Unterzeichner außerdem darauf fest,
Bundestagswahl 2021 auf einigen Plattformen
                                                                        Forscher:innen und Faktenprüfer:innen generelle
stark verbreitet waren. Besonders problematisch
                                                                        Informationen über ihre Algorithmen bereitzustellen.
ist der Befund, dass nachweislich falsche Inhalte
teilweise nur selektiv mit Warnhinweisen versehen
                                                                        Durchsetzung
waren. Damit rücken auch die Bedingungen und
Regeln für algorithmische Empfehlungssysteme, die
                                                                        Bei der Weiterentwicklung algorithmischer
die Reichweite problematischer Inhalte im Rahmen der
                                                                        Empfehlungssysteme setzen die Anbieter unter
Kuratierung weniger prominent darstellen sollen, als
                                                                        anderem aufs Feedback der Nutzer:innen.52 In den
zusätzliche Komponente in den Fokus dieses Berichts.
                                                                        letzten Jahren haben einige Anbieter außerdem einen
                                                                        Austausch mit externen Expert:innen angestoßen.
                                                                        Facebook hat sich dabei zum Ziel gesetzt, dass jedes
                                                                        eingeführte System Schutz vor Manipulation und
                                                                        Gaming bietet, persönliche Voreingenommenheit
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen                                                    13

vermeiden und die Stimmen der Minderheiten schützen                     Die Enthüllungen der Whistleblowerin Frances Haugen
müsse.53 Ein Blick auf die Analysen im Kontext der                      geben Einblicke, die bislang verwehrt blieben. So
Bundestagswahl 2021 zeigt jedoch, dass gewisse                          führten Facebooks Änderungen des NewsFeed
Stimmen im Feed durch die Empfehlungssysteme                            Algorithmus im Jahr 2018 dazu, dass Verlage und
bevorzugt werden.                                                       sogar politische Parteien verstärkt auf sensationelle
                                                                        und empörende Inhalte setzten, da dies zu mehr
- Facebook: Eine Untersuchung des Projektes                            Engagement auf Facebook führte. Hintergrund war
   Citizen Browser der Organisation The Markup in                       eine neue Formel, mit der gemessen wurde, wie
   Zusammenarbeit mit der Süddeutschen Zeitung (SZ)                     viel sinnvolle, soziale Interaktion (engl.: meaningful
   belegt auf Basis der Daten eines politisch diversen                  interaction) ein Beitrag auslöst. Um Sichtbarkeit
   Panels von 473 deutschsprachigen Nutzer:innen, dass                  zu gewinnen, mussten Beiträge daher möglichst
   Beiträge AfD-bezogener Seiten vom 20. Juli bis 16.                   viel „hochwertiges Engagement“ erhalten (wie
   September 2021 dreimal so häufig in den NewsFeeds                    beispielsweise Reaktionen oder Antworten auf
   der Nutzer:innen vorzufinden waren, wie die einer                    Kommentare). Nach einem internen Punktesystem
   anderen Partei.54 Eine Studie von HOPE NOT HATE                      war ein „Gefällt mir“ einen Punkt, eine Reaktion, ein
   zeigt außerdem, dass Beiträge der offiziellen AfD-Seite              erneutes Teilen ohne Text oder eine Antwort auf
   vom 1. Mai bis 30. Juni 2020 im Schnitt rund 15-mal                  eine Einladung fünf Punkte und ein substantieller
   häufiger als die der CDU-Seite und 5-mal häufiger                    Kommentar, eine Nachricht oder ein erneutes Teilen
   als die der Seite von Bündnis 90/Die Grünen geteilt                  30 Punkte wert. Zusätzliche Multiplikatoren wurden
   wurden.55 Eine ethnografische Analyse des ISD legt                   hinzugefügt, je nachdem, ob die Interaktion zwischen
   darüber hinaus dar, dass insbesondere AfD-bezogene                   Mitgliedern einer Gruppe, Freunden oder Fremden
   Seiten und Gruppen Zweifel am Wahlergebnis in                        stattfand.58 Trotz genannter Beschwerden wurden die
   Deutschland auf unterschiedlichen Plattformen                        Probleme erst ab August 2021 in einigen europäischen
   säten.56 Dies legt nahe, dass problematische Inhalte                 Ländern im Rahmen einer Testphase angegangen.59
   priorisiert worden sein könnten.
                                                                        Medienstaatsvertrag
- I nstagram: Eine andere Untersuchung von SZ
   und AlgorithmWatch auf Grundlage von mehr als                        Um Meinungsvielfalt und Chancengleichheit auch
   6.000 Beiträgen von mehr als 100 Accounts von                        im Netz zu ermöglichen, verabschiedeten die 16
   Politiker:innen und Parteien belegt außerdem,                        Landesparlamente im Jahr 2020 den Staatsvertrag zur
   dass der Empfehlungsalgorithmus von Instagram                        Modernisierung der Medienordnung in Deutschland
   bestimmte Themen und Parteien - insbesondere die                     (Medienstaatsvertrag - MStV) als Ergebnis eines
   AfD - weiter oben im Feed platzierte. Dabei blieben die              mehrjährigen Prozesses. Dieser löste den bisherigen
   Entscheidungsparameter letztlich unklar - Facebook                   Rundfunkstaatsvertrag ab und führte unter
   verwies in einer Antwort auf eine Anfrage der                        anderem umfassende Pflichten für sogenannte
   Forscher:innen einzig darauf, dass inhaltliche Kriterien             Medienintermediäre (MI) wie Facebook oder Google
   keine Rolle bei der Platzierung von Beiträgen spielten.57            ein, die im Rahmen einer spezifischen MI-Satzung
                                                                        der Länder weiter konkretisiert wurden. Soweit
Jede Verzerrung der Rangfolge und Darstellung                           Medienintermediäre Einfluss auf die öffentliche
von Inhalten im Feed wirkt sich auf tausende                            Meinungsbildung haben, sind sie nach MStV zur
wahlberechtigte Nutzer:innen und ihre                                   Offenlegung der zentralen Kriterien einer Aggregation,
Meinungsbildung aus. Eine Untersuchung                                  Selektion und Präsentation von Inhalten und ihre
der Hintergründe von Verzerrungen ist                                   Gewichtung einschließlich der Funktionsweise ihrer
jedoch einzig durch eine verlässliche                                   Algorithmen verpflichtet. Außerdem dürfen sie
Transparenzverpflichtung und weiterführende                             keine einzelnen journalistisch-redaktionellen Inhalte
Informationen zur Funktionsweise algorithmischer                        systematisch und ohne Rechtfertigung benachteiligen
Empfehlungssystemen möglich - ein Aspekt, den                           (Diskriminierungsfreiheit). Eine Diskriminierung liegt
auch der Medienstaatsvertrag aufgreift.                                 konkret dann vor, wenn ohne sachlich gerechtfertigten
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen                                                    14

Grund von genannten Kriterien zugunsten oder                            Informationsangebote zur Wahl prioritär behandelt.
zulasten eines bestimmten Angebots systematisch                         Auf Facebook News - ein gesonderter Bereich
abgewichen wird oder Kriterien Angebote unmittelbar                     für journalistische Inhalte - wurde ein spezieller
oder mittelbar unbillig systematisch behindern.                         Themenbereich zur Bundestagswahl aufbereitet und
Zudem müssen sich alle Telemedien mit journalistisch-                   Beiträge von Medienpartner:innen in gesonderten
redaktionellen Angeboten an anerkannte                                  Kategorien (unter anderem „Die Wahlkampfthemen“)
journalistische Grundsätze halten, was jedoch nicht Teil                aufgegriffen. Zudem bestand am Wahltag und am
dieser Untersuchung ist. Schließlich enthält der MStV                   Folgetag der gesamte obere Bereich der Facebook
auch eine Kennzeichnungspflicht für automatisiert                       News Startseite aus kuratierten Artikeln zur Wahl.63
erstellte Inhalte oder Mitteilungen, die im nächsten                    Ob für dieses Angebot die Regeln für MI gelten, ist
Kapitel angesprochen werden. Die Prüfung von                            jedoch unwahrscheinlich - vielmehr handelt es sich bei
Verstößen obliegt den Landesmedienanstalten, die                        Facebook News womöglich um eine medienrechtliche
Anzeigen erhalten und prüfen können60 – Befugnisse,                     Qualifizierung als Medienplattform, welche zwar einen
die insbesondere von der Europäischen Kommission                        diskriminierungsfreien und chancengleichen Zugang
kritisch gesehen werden.61                                              für Inhalteanbieter gewährleisten müssen, nicht
                                                                        jedoch dem Kriterium der Diskriminierungsfreiheit
Durchsetzung                                                            unterliegen.64 Anders sieht es hingegen in Fällen
                                                                        aus, in denen bestimmte Inhalte priorisiert im
Obwohl die konkretisierenden Regelungen der MI-                         allgemeinen NewsFeed oder den Suchergebnissen
Satzung in den Bundesländern erst zum 1. Januar                         dargestellt werden.
2022 in Kraft treten sollen, sind Medienintermediäre
bereits seit Inkrafttreten des MStV in dessen                           Dieser Befund zeigt, dass gewisse
Anwendungsbereich einbezogen. Auf dieser                                Spannungsverhältnisse unter den Regelwerken gegen
gesetzlichen Grundlage beanstandeten die                                digitale Bedrohungen im Netz existieren. Denn während
Landesmedienanstalten bereits Verstöße gegen                            der CoPD eine Priorisierung relevanter, authentischer
die Diskriminierungsfreiheit.                                           und maßgeblicher Informationen festschreibt,
                                                                        beinhaltet der MStV Regeln zur Diskriminierungsfreiheit
So sprach die Kommission für Zulassung und Aufsicht                     für die Angebote von Medienintermediären.
(ZAK) im Juni 2021 in einem von der Medienanstalt
Hamburg/Schleswig-Holstein (MA HSH) gegen
Google eingeleiteten Verfahren eine Beanstandung
wegen Verletzung der Diskriminierungsfreiheit aus.
Gegenstand des Verfahrens war eine Kooperation von
Google und dem Bundesministerium für Gesundheit
(BMG), die eine priorisierte Darstellung von Inhalten
des nationalen Gesundheitsportals www.gesund.bund.
de in der deutschen Version der Google Suchmaschine
vom 10. November 2020 bis zum 10. Februar 2021
umfasste. In dem Kontext wurde einer Beschwerde
des betroffenen Betreibers von www.apotheken-
umschau.de stattgegeben. Die ZAK stellte fest, dass
durch diese Kooperation eine unbillige Behinderung
anderer Anbieter journalistisch-redaktioneller Inhalte
stattgefunden habe.62 Die Kooperation zwischen Google
und dem BMG wurde inzwischen beendet.

Im Kontext der Bundestagswahl 2021 haben Anbieter
wie Google und Facebook außerdem bestimmte
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen                                                    15

Inwiefern haben Parteien zu einem fairen digitalen
Wahlkampf beigetragen?
Abseits der Regelwerke für Plattformanbieter gaben                      Eine Auswertung des Leibniz-Instituts für
sämtliche im Bundestag vertretenen Parteien außer                       Medienforschung | Hans-Bredow-Institut (HBI) im
der AfD im Kontext der Bundestagswahl 2021 freiwillige                  August 2021 anhand eines Fragenkatalogs, der auf
Selbstverpflichtungen für den digitalen Wahlkampf                       den Kriterien des Leitfadens für digitale Demokratie
ab. Vorausgegangen war die Initiative Campaign                          basiert, dokumentiert eine hohe Übereinstimmung
Watch, an der sich neben dem ISD Germany auch                           der im Bundestag vertretenen Parteien - außer der AfD
21 weitere zivilgesellschaftliche Organisationen als                    - mit den Zielen und Verpflichtungen des Leitfadens
Partner beteiligten. Um eine „Firewall der Demokratie“                  für digitale Demokratie. So ernannten alle Parteien
zu bauen, legte die Initiative Anfang Juni 2021 einen                   Verantwortliche für den (digitalen) Wahlkampf. CDU,
Leitfaden für digitale Demokratie mit konkreten                         SPD, Bündnis 90/Die Grünen, FDP und die LINKE
Handlungsempfehlungen vor und verschickte ihn an die                    bekannten sich außerdem dazu, ihre Werbung und
politischen Parteien.65 Dieser umfasste Bestimmungen                    andere Inhalte als der Partei zugehörig zu kennzeichnen
- basierend auf den Ansichten und Ideen der beteiligten                 und Inhalte vor Verbreitung auf ihre Richtigkeit
Partner - in folgenden Bereichen: Transparenz,                          hin zu überprüfen. Auch gaben einige Parteien an,
Grundrechtsschutz, Desinformation und digitale                          Mitarbeiter:innenschulungen durchzuführen. Die
Gewalt. Dazu gehörten etwa die Kennzeichnung eigener                    meisten Parteien verzichteten außerdem auf durch
Inhalte, die Einschränkung von Targeting-Kriterien auf                  Doxing gewonnene Informationen. Dennoch wurde auch
Ort und Alter in der Zielgruppenansprache und die                       Nachbesserungsbedarf festgestellt. So veröffentlichte
Kennzeichnung von Inhalten, Profilen und Seiten, die                    nur Bündnis 90/Die Grünen detaillierte Berichte über
automatisiert erstellt und betrieben wurden (im Einklang                eingesetzte digitale Werbemaßnahmen. Andere
mit der Kennzeichnungspflicht für automatisiert                         Parteien verwiesen in diesem Zusammenhang lediglich
erstellte Inhalte oder Mitteilungen im Sinne des MStV).                 auf die Werbebibliotheken von Plattformen. Eine
                                                                        Einschränkung der Targeting-Kriterien auf die Parameter
                                                                        „Ort“ und „Alter“ - eine zentrale Vorgabe von Campaign
                                                                        Watch - wurde zudem von keiner der befragten Parteien
                                                                        übernommen.66
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen                                                    16

Die Abbildung der Stiftung Neue Verantwortung (SNV)                     September 2021 relativ konstant rund um den
visualisiert die Umsetzung pro Vorgabe des Leitfadens.                  Durchschnitt aller Fraktionen liegt, bleibt die Quote
Dabei wird zwischen (weitgehender) und teilweiser                       der AfD meist deutlich oberhalb des Durchschnitts.
Übereinstimmung unterschieden.                                          Außerdem wurden die Accounts von AfD-Abgeordneten
                                                                        deutlich öfter privat gestellt als die der anderen. Für
Während die Auswertungen von HBI und SNV auf den                        eine Untersuchung der Gründe würde es jedoch
Selbstverpflichtungen der Parteien und einer Befragung                  einer Inhaltsanalyse bedürfen, die bereits gelöschte
von ihnen basieren, wurde die Durchsetzung der                          Daten enthält - ein möglicher Verstoß gegen die
Selbstverpflichtungen und das digitale Verhalten der                    Gemeinschaftsstandards von Twitter. Bisherige Studien
Parteien in der Praxis bisher kaum analysiert.                          (siehe Abschnitt „Falschinformationen“) bestätigen
                                                                        jedoch, dass insbesondere von AfD-zugehörigen Seiten
Für Twitter veranschaulicht eine weitere Analyse                        Falschinformationen und Verschwörungserzählungen
des HBI interessanterweise, dass Tweets von                             verbreitet wurden.67 Damit liegt nahe, dass der
Bundestagsabgeordneten einzelner im Bundestag                           Tweetschwund durch eine Umstellung auf „Privat“
vertretener Parteien überdurchschnittlich häufig                        mit der Verbreitung problematischer Inhalte in
verschwanden. Während der Tweetschwund der                              Verbindung stehen könnte. Weitere Analysen sind
meisten Bundestagsfraktionen zwischen April und                         hier jedoch unerlässlich.
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen                                                    17

Fazit: Unzureichende und fehlerhafte Durchsetzung

Dieser Bericht konnte auf Basis einzelner kritischer                    darstellen, mitunter mangelhaft umgesetzt. Gleichzeitig
Fallstudien Defizite bei der Durchsetzung von Regeln                    stellen diese möglicherweise ein Spannungsverhältnis
gegen digitale Bedrohungen im Netz im Kontext der                       zur im MStV vorgesehenen Diskriminierungsfreiheit
Bundestagswahl 2021 identifizieren. So konnten                          dar. Überdies gab es Belege dafür, dass Facebooks
digitale Gewalt sowie Falsch- und Desinformationen                      Werbebibliothek unvollständig war. Bei politischen
trotz NetzDG, CoPD und Gemeinschaftsstandards                           Anzeigen selbst verzichteten alle politische
nicht ausreichend eingedämmt werden.                                    Parteien auf eine weitgehende Einschränkung des
                                                                        Microtargeting (der zielgerichteten Ansprache von
Rechtswidrige Inhalte wurden teilweise zu spät oder                     Nutzer:innen basierend auf persönlichen Daten
gar nicht entfernt oder trotz NetzDG-Beschwerden                        zu deren Onlineverhalten). Trotzdem bleibt positiv
auf Grundlage der Gemeinschaftsstandards                                hervorzuheben, dass alle im Bundestag vertretenen
bearbeitet. Dies dürfte unter anderem Verzerrungen                      Parteien bis auf die AfD erstmals Selbstverpflichtungen
in den Transparenzberichten nach NetzDG zur Folge                       für den digitalen Wahlkampf abgaben.
haben. Falschinformationen waren überdies im
Kontext der Bundestagswahl 2021 weit verbreitet                         Die in diesem Bericht aufgegriffenen
und vielfach trotz bereits erfolgter Faktenprüfung                      Forschungsbefunde im Kontext der Bundestagswahl
für die aufgegriffene Erzählung ohne Warnhinweis                        2021 können eine Grundlage für die Weiterentwicklung
weiterhin ersichtlich. Diese Befunde legen außerdem                     der Regelwerke für Plattformanbieter und politische
den Verdacht nahe, dass automatisierte Systeme zur                      Parteien im In- und Ausland bieten. Trotzdem
Erkennung problematischer Inhalte noch nicht so                         unterliegt der Bericht der Limitation, dass vorliegende
weit entwickelt sind, wie es die Anbieter öffentlich                    Forschungsarbeiten große Online-Plattformen wie
verkünden. Darüber hinaus trugen automatisierte                         Facebook bevorzugt untersuchten und dabei andere
Empfehlungssysteme dazu bei, dass Inhalte bestimmter                    Anbieter weniger berücksichtigt blieben. Der weiterhin
politischer Akteur:innen - insbesondere AfD-zugehörige                  begrenzte Zugang zu Plattformdaten - gerade im
Seiten - im Feed bevorzugt wurden - ein Befund,                         Bereich der Reichweite problematischer Inhalte
der Aussagen der Anbieter zur Einschränkung der                         - sowie die unterschiedliche Beschaffenheit der
Verbreitung problematischer Inhalte widerspricht. Denn                  Plattformen erschwerte zudem eine systematische und
vor allem AfD-zugehörige Seiten säten Zweifel an dem                    vergleichende Analyse der Durchsetzung bestehender
Wahlprozess sowie Wahlergebnis und verbreiteten                         Regelwerke. Eine Gesamtevaluation bestehender
Verschwörungserzählungen. Zudem waren auch Info-                        staatlicher und selbstregulativer Regelwerke ist daher
Banner, die vertrauenswürdige Informationen prioritär                   nicht möglich.
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen                                                    18

Politischer Ausblick

Im Dezember 2020 veröffentlichte die Europäische                        Integrität ihrer Dienste vor manipulativen Techniken
Kommission einen Vorschlag für ein Gesetz über                          schützen. Zu möglichen Instrumenten gehören
digitale Dienste („Digital Services Act“, DSA), das                     etwa die Beendigung von Werbeeinnahmen für
künftig einheitliche horizontale Regeln für Anbieter                    bestimmte Inhalte, die Anpassung der algorithmischen
von Vermittlungsdiensten, einschließlich der Online-                    Empfehlungssysteme oder der Online-Schnittstellen.
Plattformen, einführen und einer Zersplitterung im                      Systemische Risiken umfassen hier Risiken, die durch
europäischen Rechtsraum entgegenwirken soll.68                          die Verbreitung illegaler Inhalte entstehen (darunter
                                                                        illegale Hassrede), die Auswirkungen auf die Ausübung
Der Vorschlag der Kommission verpflichtet Online-                       der Grundrechte haben (einschließlich der Freiheit
Plattformen zu Melde- und Abhilfeverfahren (sog.                        der Meinungsäußerung), oder die absichtliche und
„Notice-and-action-Verfahren“) für illegale Inhalte                     oftmals koordinierte Manipulation der Plattform,
oder Inhalte, die gegen die Gemeinschaftsstandards                      welche absehbare Auswirkungen auf Gesundheit,
verstoßen. Die vorgeschlagenen Haftungsregeln                           den gesellschaftlichen Diskurs, Wahlprozesse, die
enthalten zudem Haftungsausschlüsse für Anbieter,                       öffentliche Sicherheit sowie den Schutz Minderjähriger
die auf Eigeninitiative freiwillige Tätigkeiten zur                     bedeuten können.
Erkennung, Feststellung und Entfernung illegaler
Inhalte durchführen (sog. „Good Samaritan Clause“).                     Anfang 2022 sollen die Verhandlungen im Trilog-
Zudem sieht der Vorschlag einen Beschwerde-                             Verfahren zwischen Rat, Parlament und Kommission
und Rechtsbehelfsmechanismus, Vorgaben für                              über den endgültigen Gesetzestext beginnen, mit
„Trusted Flaggers“ (also akkreditierte Personen                         dem Ziel, dass die Regelungen Ende 2022 umgesetzt
und Organisationen, die rechtswidrige Inhalte                           werden. Mehrfach wurde bereits von deutscher Seite
melden) sowie Transparenzpflichten hinsichtlich der                     die Komplementarität des NetzDG und des DSA betont,
Moderation von Inhalten vor. Transparenzberichte                        wodurch nach Inkrafttreten des DSA schlicht ein
sollen wie beim NetzDG Daten über Beschwerden                           Änderungs- und Anpassungsbedarf geprüft werden
und Löschungen offenlegen. Dabei soll zwischen                          müsse.69 Tatsächlich beinhaltet der DSA Regelungen,
Meldungen auf gesetzlicher Grundlage oder aufgrund                      die sich teilweise mit denen des NetzDG und des MStV
der Gemeinschaftsstandards unterschieden werden.                        überschneiden, wodurch eine Implementierung in
Offengelegt werden soll auch, in welchen Fällen                         Deutschland ohne Gesetzesnovellierungen kaum
Anbieter eigenständig Inhalte gelöscht oder gesperrt                    möglich sein wird.
haben. Im Bereich der Online-Werbung sollen ebenfalls
Transparenzpflichten eingeführt werden. Nutzer:innen                    Der DSA steht im Einklang mit den Zielen des
sollen Informationen darüber erhalten, anhand welcher                   Europäischen Aktionsplan für Demokratie (EDAP)70
grundlegenden Kriterien bestimmt wird, welche                           zur Förderung freier und fairer Wahlen, Stärkung
Werbung ihnen angezeigt wird.                                           der Medienfreiheit sowie Bekämpfung von
                                                                        Desinformation. Im Rahmen des Aktionsplans hat
Sehr große Online-Plattformen, deren Dienste von                        die Kommission im November 2021 zusätzlich
mehr als 45 Millionen Menschen in der Europäischen                      Rechtsvorschriften für politische Werbung, Wahlrecht
Union genutzt werden, sollen zusätzliche                                und Parteienfinanzierung vorgelegt.71 Mit dem
Sorgfaltspflichten auferlegt werden. Dazu gehören                       Vorschlag sollen unter anderem Techniken für Targeting
Erklärungen zu automatisierten Empfehlungssystemen                      und Amplifikation von politischer Werbung verboten
und dazugehörige Einstellungsmöglichkeiten für                          werden, bei denen sensible personenbezogene Daten
Nutzer:innen, Transparenz-Datenbanken für Online-                       wie ethnische Herkunft, religiöse Überzeugungen
Werbung, jährliche Audits sowie Risikobewertungen                       oder sexuelle Orientierung verwendet oder abgeleitet
hinsichtlich der möglichen Auswirkungen auf die                         werden. Solche Techniken sollen jedoch noch nach
Grundrechte der Bürger:innen. Die Plattformen                           „ausdrücklicher Zustimmung“ der betroffenen
sollen demnach die von ihren Systemen                                   Person zulässig sein. Erstmals soll es zudem strenge
ausgehenden Risiken bewerten, um geeignete                              Transparenzanforderungen zu verwendeten Kriterien
Risikomanagementinstrumente zu entwickeln, die die                      sowie Instrumenten oder Methoden beim Einsatz
Sie können auch lesen