Eine Evaluation der Regeln gegen digitale Bedrohungen - Bundestagswahl 2021 Mauritius Dorn, Sara Bundtzen
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
Gefördert durch: Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen Mauritius Dorn, Sara Bundtzen
Autor:innen Mauritius Dorn Mauritius Dorn ist Digital Policy Fellow beim ISD Germany. Er koordiniert digitalpolitische Empfehlungen, führt Desinformationstrainings durch und koordiniert Initiativen mit anderen Forschungsorganisationen. Er unterstützt zudem das Team des Digital Policy Lab (DPL). Sara Bundtzen Sara Bundtzen ist Research & Policy Associate beim ISD Germany. Sie unterstützt die digitalpolitische Arbeit des Digital Policy Lab (DPL) und untersucht die Verbreitung von Desinformation und Propaganda durch staatliche und nichtstaatliche Akteure. Herausgeberische Verantwortung: Huberta von Voss, Executive Director ISD Germany Das Projekt wurde finanziell von Reset Tech unterstützt. Die inhaltliche Verantwortung liegt ausschließlich beim ISD Germany. Copyright © Institute for Strategic Dialogue (2022). Das Institute for Strategic Dialogue (gGmbH) ist beim Amtsgericht Berlin-Charlottenburg registriert (HRB 207 328B). Die Geschäftsführerin ist Huberta von Voss. Die Anschrift lautet: Postfach 80647, 10006 Berlin. Alle Rechte vorbehalten. www.isdglobal.org
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen 3 Überblick Noch nie lief eine Bundestagswahl so digital ab wie 2021. Damit standen auch die Aktivitäten auf (und von) großen Online-Plattformen wie Facebook und Twitter im Fokus des öffentlichen Diskurses. Ziel dieser Analyse ist es, die Durchsetzung der Regelwerke gegen die Verbreitung von digitalen Bedrohungen während der Bundestagswahl 2021 zu untersuchen, darunter digitale Gewalt, Falsch- und Desinformationen. Die Ergebnisse der Aufarbeitung zeigen, dass bestehende nicht-regulative wie regulative Maßnahmen teilweise unzureichend und fehlerhaft von den Plattformanbietern durchgesetzt wurden. Auch die politischen Parteien gaben zwar mehrheitlich Selbstverpflichtungen ab, jedoch waren diese in einigen Bereichen nicht ausreichend, um einen fairen digitalen Wahlkampf zu ermöglichen. Angesichts der Defizite empfiehlt der Bericht, ambitionierte Initiativen auf nationaler und europäischer Ebene zu konkretisieren und auszuweiten. Hier gilt es, demokratische und pluralistische Debatten im Netz zu gewährleisten und innovative Lösungsansätze zu fördern, damit diese tatsächlich stattfinden können. Gerade systemische Bestrebungen, basierend auf robusten Transparenzvorschriften und Sorgfaltspflichten, darunter Anforderungen zur Risikoanalyse und -minderung, sollten weiter definiert und gestärkt werden.
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen Inhaltsverzeichnis Einleitung 5 Wie effektiv haben Plattformen die bestehenden Regeln durchgesetzt? 6 Digitale Gewalt 6 Netzwerkdurchsetzungsgesetz 6 Gemeinschaftsstandards 7 Falsch- und Desinformationen 9 Verhaltenskodex zur Bekämpfung von Desinformation 9 Gemeinschaftsstandards 10 Risiken algorithmischer Empfehlungssysteme 12 Verhaltenskodex und Gemeinschaftsstandards 12 Medienstaatsvertrag 13 Inwiefern haben Parteien zu einem fairen digitalen Wahlkampf beigetragen? 15 Fazit: Unzureichende und fehlerhafte Durchsetzung 17 Politischer Ausblick 18 Empfehlungen 21 Endnoten 23
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen 5 Einleitung Mit dem Ende der Ära Merkel stand die Bundestagswahl Dieser Bericht fokussiert sich auf die Lücken, 2021 wie nie zuvor im Zentrum der Aufmerksamkeit Versäumnisse und Grenzen der von den Online- inländischer wie ausländischer Akteur:innen. Plattformen durchgeführten Maßnahmen. Während Gleichzeitig führte die Corona-Pandemie dazu, dass viele Anbieter die Gefahren, die von ihren Diensten der Wahlkampf mehr im digitalen Debattenraum ausgehen, mittlerweile einräumen, verschärft sich die ausgetragen wurde. Die Aktivitäten auf und von digitale Bedrohungslage besonders dort, wo sie durch Online-Plattformen1 stellen in diesem Kontext ein unternehmerische Gewinn-Entscheidungen ermöglicht besonderes Interesse für Forschende aus Journalismus, werden. Einschränkend sei angemerkt, dass sich die Wissenschaft und Zivilgesellschaft dar. Analysen nur auf eine Auswahl relevanter Plattformen wie Facebook, Twitter und Telegram beziehen, wodurch In einem breit angelegten Projekt, das von der Initiative eine aussagekräftige, vergleichende Analyse der Reset finanziert wurde, analysierte das Institute Regeldurchsetzung nur begrenzt möglich war. Der for Strategic Dialogue (ISD) neben anderen Teams limitierte Datenzugang zu Plattformen schränkte die und Organisationen von Juli bis Dezember 2021 die Forschungsgemeinschaft zudem in ihren Möglichkeiten Verbreitung digitaler Gewalt sowie von Falsch- und ein, die Verbreitung problematischer Inhalte auf Desinformationen. Der vorliegende retrospektive verschiedenen Plattformen zu analysieren. Daher Bericht greift sowohl ISD-Forschungsbefunde als empfiehlt dieser Bericht abschließend unter anderem auch solche anderer Forschungsorganisationen eine Ausweitung des Datenzugangs für Forscher:innen. auf, um die Durchsetzung bestehender Regelwerke wie dem Netzwerkdurchsetzungsgesetz (NetzDG), Ziel dieser Untersuchung ist es, eine Grundlage für die dem Medienstaatsvertrag, dem Verhaltenskodex Weiterentwicklung der nationalen wie europäischen der Bundestagsparteien zur Bekämpfung von Regelungsrahmen zu schaffen, basierend auf kritischen Desinformation oder den Gemeinschaftsstandards der Befunden zur Durchsetzung ausgewählter bestehender Plattformanbieter zu untersuchen. Die Untersuchung Regeln im Kontext der Bundestagswahl 2021. unterscheidet dabei zwischen folgenden Bereichen: 1. Digitale Gewalt 2. Falsch- und Desinformationen 3. Risiken automatisierter Empfehlungssysteme
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen 6 Wie effektiv haben Plattformen die bestehenden Regeln durchgesetzt? Digitale Gewalt Hass und Hetze gegen Politiker:innen weit verbreitet trotz NetzDG Digitale Gewalt ist ein Phänomen, das sich mit der Verbreitung von elektronischen Kommunikationsmitteln Analysen des ISD Germany und der und Online-Plattformen ständig weiterentwickelt und Opferschutzorganisation HateAid zeigen, dass die unterschiedliche Formen annimmt, darunter illegale Löschung oder Sperrung rechtswidriger Inhalte Hassrede. In Deutschland sollen Nutzer:innen vor teilweise unzureichend war. Die Auswertung zeigt digitaler Gewalt auf Plattformen bislang vor allem durch zudem, dass politische Kandidat:innen vielfach zwei Regelwerke geschützt werden: hasserfüllten Inhalten ausgesetzt waren, die schädlich, aber nicht rechtswidrig waren. -d as Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken -T elegram: Eine Analyse des ISD zeigt, dass neun (Netzwerkdurchsetzungsgesetz - NetzDG)2; und der jeweils 100 meistgelesenen Beiträge zu den -d ie Gemeinschaftsstandards der Plattformanbieter drei Spitzenkandidat:innen (von CDU, SPD und Bündnis 90/Die Grünen) in qualitativ ausgewählten Netzwerkdurchsetzungsgesetz Telegram-Kanälen des rechtsextremen und verschwörungsaffinen Milieus4 im Zeitraum 1. Im Kontext der zunehmenden Verbreitung von Februar bis 31. Juli 2021 potenziell rechtswidrige Hasskriminalität im Netz, der Erfahrungen im US- Inhalte aufwiesen. In einem Fall wurden Nutzer:innen Wahlkampf und weitestgehend folgenlose Gespräche über Telegram sogar mobilisiert, koordiniert mit den Plattformanbietern über freiwillige Maßnahmen Hasskommentare gegen CDU-Spitzenkandidaten legte die Bundesregierung 2017 das NetzDG vor. Armin Laschet bei Instagram zu verfassen.5 Dieses zielt darauf ab, Hasskriminalität, strafbare Falschnachrichten und andere strafbare Inhalte auf - Twitter: Auswertungen von HateAid für den Zeitraum den sozialen Netzwerken effektiver zu bekämpfen. 19. bis 26. August 2021 zeigen, dass Laschet 5.662 Anbieter sozialer Netzwerke3 müssen demnach potenziell hasserfüllte Kommentare6 auf Twitter Beschwerden der Nutzer:innen unverzüglich zur erhielt - fünf- bis neunmal häufiger als im Fall der Kenntnis nehmen und auf strafrechtliche Relevanz anderen Spitzenkandidat:innen.7 In dem Zeitraum prüfen. „Offensichtlich rechtswidrige Inhalte“ müssen vom 7. August bis 7. September 2021 waren es 27.476 innerhalb von 24 Stunden gelöscht oder gesperrt entsprechende Kommentare. Olaf Scholz (SPD) wurde werden, jeder rechtswidrige Inhalt innerhalb von sieben im selben Zeitraum in 6.690, Annalena Baerbock Tagen. Außerdem müssen die Anbieter halbjährlich (Bündnis 90/Die Grünen) in 5.524 Tweets im Kontext einen Transparenzbericht vorlegen. Im Jahr 2021 wurde mit potenziell beleidigender und verletzender Sprache das NetzDG novelliert, einige relevante Änderungen genannt. Basierend auf einer stichprobenartigen treten allerdings erst ab Februar 2022 in Kraft (siehe rechtlichen Überprüfung von je 100 potenziell „Politischer Ausblick“). hasserfüllten Kommentaren zu Laschet, Scholz und Baerbock wurden etwa 7 % als potenziell rechtswidrig Durchsetzung eingestuft.8 Mit der gesetzlichen Verpflichtung zur Löschung oder Löschung erfolgt nach Gemeinschaftsstandards Sperrung rechtswidriger Inhalte sehen sich die Anbieter trotz NetzDG-Beschwerde mit der Aufgabe konfrontiert, Abgrenzungen zwischen der Rechtmäßigkeit und Rechtswidrigkeit gemeldeter Analysen der Süddeutschen Zeitung (SZ) sowie Beiträge innerhalb eines relativ kurzen Zeitraums der Initiative Reset und HateAid legen dar, dass vorzunehmen. die Löschung oder Sperrung von potenziell „offensichtlich rechtswidrigen Inhalten“ auf Facebook
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen 7 teilweise nicht fristgerecht und häufig auf Basis der mehr Transparenz über die Melde- und Reaktionswege Gemeinschaftsstandards erfolgte, anstatt auf Basis des schaffen. Indem Inhalte trotz NetzDG-Beschwerde NetzDG-Meldeverfahrens. Die untersuchten Inhalte auf Grundlage der Gemeinschaftsstandards entfernt waren vor Beschwerde nach NetzDG von einer Juristin werden, umgehen die Anbieter häufig die Erfassung als rechtswidrig eingestuft worden. von Beschwerden in den Transparenzberichten sowie die im NetzDG festgeschriebene Begründungspflicht. -E in investigatives Projektteam der SZ fand heraus, Ursächlich ist ein zweistufiges Meldeverfahren, bei dass zwölf von 69 (17,4 %) Facebook-Kommentaren, dem gemeldete Inhalte zunächst auf eine Verletzung die es nach NetzDG im August 2021 gemeldet hatte, der Gemeinschaftsstandards hin und erst bei trotz potenzieller Rechtswidrigkeit - unter anderem Nichtverletzung nach NetzDG überprüft werden - Beleidigungs- und Volksverhetzungstatbestände eine Problematik, die bereits im Evaluationsbericht - auch eine Woche nach Meldezeitpunkt immer der Bundesregierung Erwähnung fand.11 Im jüngsten noch nicht gelöscht oder gesperrt waren. Transparenzbericht von Facebook für den Zeitraum Außerdem wurden die Kommentare in den meisten 1. Januar bis 30. Juni 2021 wurden 77.671 NetzDG- Fällen mit der Begründung gelöscht, dass sie die Beschwerden dokumentiert, in denen insgesamt Gemeinschaftsstandards verletzen würden. Die 67.028 Inhalte genannt wurden12 - ein massiver Anstieg Kommentare richteten sich gegen eine Politikerin von um 1.844 %.13 Dieser ist jedoch vermutlich eher auf Bündnis 90/Die Grünen.9 ein neues allgemein zugängliches Meldeformular zurückzuführen als auf eine gestiegene Bereitschaft der -E in ähnliches Experiment von HateAid und Reset Plattformen, demokratieschädigende Inhalte zeitnah zeigt, dass von den 100 potenziell „offensichtlich und nachhaltig zu entfernen. rechtswidrigen“ Kommentaren, die nach NetzDG im Vorfeld der Bundestagswahl 2021 gemeldet wurden, Während das NetzDG die Anbieter dazu verpflichtet, Facebook in gar 33 Fällen befand, dass kein Verstoß rechtswidrige Inhalte nach Beschwerde der vorläge. Fast alle übrigen Kommentare wurden mit Nutzer:innen zu löschen oder zu sperren, obliegt Verweis auf die eigenen Gemeinschaftsstandards die Bekämpfung legaler, aber dennoch hasserfüllter gelöscht. Insbesondere Inhalte, die sich gegen und problematischer Inhalte wiederum den hochrangige Politiker:innen richteten, /werden in den Gemeinschaftsstandards. seltensten Fällen entfernt.10 Gemeinschaftsstandards Selbst wenn Anbieter alle gemeldeten potenziell rechtswidrigen Inhalte fristgerecht nach NetzDG Die meisten Plattformen verfügen mittlerweile oder Gemeinschaftsstandards löschen oder über umfassende Hausregeln - sogenannte sperren würden, würde dies nicht bedeuten, dass Gemeinschaftsstandards (engl.: Community Hasskriminalität von den Plattformen verschwindet. Standards)- die festlegen, welche Inhalte und Im Experiment von Reset und HateAid waren die welches Verhalten erlaubt oder nicht erlaubt sind, 100 selektierten Inhalte zum Meldezeitpunkt insbesondere hinsichtlich der Formen digitaler Gewalt beispielsweise im Schnitt bereits seit 409 Tagen und Hassrede. Die Gemeinschaftsstandards sind in online. Aufgrund des im NetzDG vorgesehenen der Regel in den Nutzungsbedingungen (engl.: Terms „Notice and take down“-Verfahrens muss eine Prüfung of Service) der Anbieter dargelegt. Nach einem Urteil durch die Anbieter jedoch erst nach Meldung durch des Bundesgerichtshofs im Juli 2021 dürfen sie dabei die Nutzer:innen erfolgen. Da die Anbieter keine auch legale Inhalte verbieten.14 Allerdings müssen Nachforschungspflicht trifft, ist entscheidend, dass die Anbieter die betroffenen Nutzer:innen über ihre Nutzer:innen den Anbietern rechtswidrige Inhalte auf Entscheidungen angemessen informieren. Hinsichtlich eine nutzerfreundliche Art übermitteln können, damit digitaler Gewalt wird in den Gemeinschaftsstandards diese davon Kenntnis erlangen. Anbieter sollten ihrer gemeinhin zwischen Hassrede, Gewalt und Verantwortung beim Umgang mit Beschwerden zu Anstiftung zu Gewalt sowie Belästigung und Mobbing rechtswidrigen Inhalten gerecht werden und insofern unterschieden, wobei Hassrede bereits in vielen
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen 8 Fällen abdeckt, was auch nach dem NetzDG potenziell wurden, die sich gegen 60 Bundestagskandidat:innen rechtswidrig ist. Dennoch gibt es Bereiche, in denen richten. Dabei finden sich Verschwörungsmythen, die Gemeinschaftsstandards hinter dem gesetzlichen Fremdenfeindlichkeit, Rassismus, Sexismus Rahmen zurückbleiben. Die Standards enthalten und LGBTQ-Feindlichkeit in einer Stichprobe in den meisten Fällen auch Regeln für gefährliche der meistgeteilten Tweets. Die untersuchten Gruppen und Personen, die aber in diesem Bericht nicht Kandidat:innen repräsentieren unterschiedliche berücksichtigt werden. Identitäten im Hinblick auf Gender, Sexualität, ethnische Zugehörigkeit, Migrationshintergrund und Durchsetzung Parteizugehörigkeit.19 Bei der Erkennung und Entfernung unzulässiger Dass die Durchsetzung der Inhalte setzen die Plattformanbieter sowohl auf die Gemeinschaftsstandards unzureichend und Meldung durch Nutzer:innen, als auch verstärkt auf teilweise selektiv erfolgt, zeigt, dass eine automatisierte Erkennungssysteme. Facebook selbst weitgehend unbeaufsichtigte und intransparente gibt an, von April bis Juni 2021 weltweit 31,5 Millionen Durchsetzung der Gemeinschaftsstandards Inhalte von Facebook entfernt zu haben, weil diese das Problem der digitalen Gewalt nicht effektiv gegen die Richtlinien zu Hassrede verstoßen hätten bewältigt. Die Veröffentlichung Facebook-interner (oder verstießen). Knapp 98 % von ihnen sollen Dokumente, Studien und Memos belegt zudem, dass dabei sogar eigenständig vor einer Meldung durch Facebook Länder kategorisierte und solche in der Nutzer:innen entfernt worden sein.15 höchsten Prioritätsstufe, wie die Vereinigten Staaten, bei der Bekämpfung von Hassrede bevorzugte. 84 % Unzureichende und selektive Durchsetzung der des Zeitbudgets für die Löschung und Eindämmung Gemeinschaftsstandards von Desinformation sollten demnach bewusst auf den US-Markt entfallen.20 Bisher widersprechen Anbieter wie Analysen der SZ, HateAid und Reset sowie des ISD Facebook jedoch solchen Erkenntnissen und verweisen offenbaren Defizite bei der Entfernung von Inhalten, die auf die Wirksamkeit ihrer meist automatisierten offensichtlich gegen die Gemeinschaftsstandards der Erkennungs- und Entfernungssysteme. Anbieter verstoßen. Künstliche Intelligenz doch nicht so wirksam wie - Facebook: In einer Untersuchung der SZ vom erhofft? 1. September 2021 waren 11 von 70 (15,7 %) Facebook-Kommentaren, die wegen offensichtlicher Auch im Vorfeld der Bundestagswahl 2021 Verletzung der Gemeinschaftsstandards gemeldet verwiesen die Plattformanbieter abermals auf ihre worden waren, auch eine Woche nach Meldung technologischen Ressourcen. So gab YouTube an, 94 noch weiterhin zugänglich. In 56 Fällen antwortete % der Inhalte mit Richtlinienverstößen im Netzwerk Facebook innerhalb einer Woche.16 In einem durch automatische Meldungen zu erkennen.21 Laut ähnlichen Experiment von HateAid und Reset Johannes Baldauf, Public Policy Manager bei Facebook wurden nur 50 % der aufgrund einer offensichtlichen Deutschland, sei Facebook sogar „Vorreiter im Einsatz Verletzung der Gemeinschaftsstandards - unter künstlicher Intelligenz, um unzulässige Inhalte zu anderem der Hassrede-Richtlinie - gemeldeten erkennen und schneller zu erkennen.“22 Kommentare auf öffentlichen Seiten der AfD gelöscht, darunter zahlreiche Kommentare, die sich gegen Die Enthüllungen der Whistleblowerin Frances Kandidat:innen richteten.17 Haugen stellen diese Äußerungen in Frage. So schrieb ein leitender Facebook-Ingenieur bereits - Twitter: Eine gemeinsame Analyse von ISD Mitte 2019, dass Facebooks automatisierte Systeme Germany und HateAid kommt zu dem Ergebnis, Beiträge von der Plattform nahmen, die nur 2 % der dass im Zeitraum 1. bis 30. September 2021 10.592 Aufrufe richtlinienwidriger Hassrede generierten. potenziell hasserfüllte Tweets18 veröffentlicht Im März 2021 kam ein anderes Team zu einer
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen 9 ähnlichen Schlussfolgerung und schätzte, dass die den die Europäische Kommission initiiert hatte. automatisierten Systeme nur Beiträge entfernten, die 3 Basierend auf der Definition von Desinformation der bis 5 % der Aufrufe von Hassrede ausmachten, und 0,6 Kommission - diese Definition verwendet auch James % aller Inhalte, die gegen die Richtlinien gegen Gewalt Pamment - umfasst der CoPD freiwillige Standards und Aufwiegelung verstießen. Facebook entgegnete, und Verpflichtungen, die die Verbreitung von dass sich diese Prozentsätze nur auf Beiträge bezögen, Desinformationen in folgenden Bereichen eindämmen die mithilfe von Künstlicher Intelligenz entfernt wurden sollen: Stärkung der Forschungsgemeinschaft, und keine anderen Maßnahmen berücksichtigten wie Kontrolle der Anzeigenschaltung, politische und zum Beispiel ein niedrigeres Ranking im NewsFeed.23 themenbezogene Werbung, Integrität der Dienste Während automatisierte Moderation von Inhalten und Stärkung der Verbraucher:innen. Inzwischen sind skalierbar und schnell arbeitet, steigen gleichzeitig weitere Anbieter dem Kodex beigetreten. Nachdem die Risiken der Beschränkungen der Meinungsfreiheit. die Kommission im Mai 2021 Leitlinien für die Förderung menschlicher Moderator:innen mit Stärkung des Kodex herausgegeben hatte, planen die regionalen und nationalen Kontextwissen für unterzeichnenden Unternehmen und Organisationen umsichtige Einzelfallentscheidungen bleibt ein die Vorlage einer überarbeiteten Version bis Ende 2021 zentraler Aspekt von Regulierungsbemühungen. (siehe Abschnitt „Politischer Ausblick“). Falsch- und Desinformationen Durchsetzung Nach wie vor ist der Begriff „Desinformation“ nicht Bereits im Kontext der Europawahl 2019 evaluierte eindeutig definiert, was die Erarbeitung effektiver das ISD den CoPD. Dabei konnte nachgewiesen Regelwerke erschwert. Desinformationsexperte werden, dass der Kodex zwar zu Verbesserungen James Pamment von der Universität Lund schlägt insbesondere bei der Transparenz politischer Werbung die Verwendung folgender Begrifflichkeiten vor: geführt hatte. Gleichzeitig wurde aber auch deutlich, Falschinformation, Desinformation, Einflussoperation dass aufgrund des selbstregulativen Ansatzes, bei und ausländische Beeinflussung. Falschinformation dem keine Konsequenzen bei Nichteinhaltung meint dabei eine falsche Information, die eine drohen, kaum substantielle Veränderungen erreicht Einzelperson ohne Absicht der Irreführung verbreitet. werden konnten.26 Nachfolgende Erkenntnisse Desinformation bezieht sich wiederum auf einen unterstreichen die bereits festgestellten Mängel. nachweislich falschen Inhalt, der zum wirtschaftlichen Die Kontrolle der Anzeigenschaltung wurde in der Vorteil oder zur absichtlichen Täuschung der Analyse nicht berücksichtigt. Die Bestimmungen zu Öffentlichkeit erstellt, präsentiert und verbreitet wird, Algorithmen werden im Abschnitt „Algorithmische und der der Öffentlichkeit Schaden zufügen kann.24 Empfehlungssysteme“ genauer untersucht. In Deutschland sollen Nutzer:innen vor Falsch- und Desinformationen auf den Plattformen vor allem durch Stärkung der Forschungsgemeinschaft den europäischen Verhaltenskodex zur Bekämpfung von Desinformationen und (daraus resultierende) - Facebook: Obwohl sich Facebook als Unterzeichner Gemeinschaftsstandards geschützt werden. Aber auch des CoPD dazu bekannt hat, gewissenhafte Forschung das NetzDG bietet Schutz vor ehrverletzenden Delikten zu Desinformation und politischer Werbung wie beispielsweise Verleumdung. nicht zu verbieten oder zu entmutigen - ja sogar derartige Forschungszwecke proaktiv zu fördern Verhaltenskodex zur Bekämpfung von - wurde das Projekt Ad Observer der New York Desinformation University (NYU) im Kontext der Bundestagswahl 2021 unterbunden. Die Forscher:innen wollten Im Jahr 2018 haben unter anderem Facebook, analysieren, wem Facebook wann welche politischen Google, Twitter und TikTok den Verhaltenskodex Anzeigen anzeigt, um damit Erkenntnisse über die zur Bekämpfung von Desinformation (engl.: Code of Verbreitung von Falschinformationen zu sammeln. Practice on Disinformation - CoPD)25 unterzeichnet, Facebook begründete die Sperrung von Konten und
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen 10 Datenzugang mit einer Anordnung der Federal Trade Stärkung der Verbraucher:innen Commission (FTC) zum Schutz der Privatsphäre der Nutzer:innen. Die FTC dementierte diese Sichtweise -T ikTok: Dieselbe Analyse von Mozilla zeigt, jedoch.27 Die Organisation AlgorithmWatch sah sich dass TikToks automatisierte Info-Banner zur im Juli 2021 ebenfalls gezwungen, ein Datenspende- Bundestagswahl 2021 teilweise nicht wirkungsvoll Projekt zu dem Newsfeed-Algorithmus von Instagram waren. Zwar hatte der Anbieter ab dem 20. Juli 2021 zu beenden, um nicht zu riskieren, von Facebook über bestimmten Videos ein Banner eingeblendet, das verklagt zu werden. Facebook argumentierte, das mit einem Link zu einer Informationsseite versehen Projekt verstoße gegen die Nutzungsbedingungen, war. In der Praxis wurden die Info-Banner jedoch nur die die automatisierte Erfassung von Daten verbieten für einzelne Schlagwörter und Hashtags wie #SPD und drohte „formellere Schritte“ einzuleiten. oder #AfD automatisiert eingeblendet, die auch Allerdings hatten die Datenspender:innen nur auf nicht-wahlbezogene Inhalte einbezogen, andere ihren eigenen Feed zugegriffen und die Inhalte relevante politische Inhalte wiederum nicht. So waren freiwillig und zu Forschungszwecken über ein beispielsweise die allermeisten Videos der Accounts Datenspende Add-On mitgeteilt.28 der Parteien AfD und die LINKE im Vorfeld der Wahl nicht gekennzeichnet, da sie keine der definierten Politische Werbung und themenbezogene Werbung Schlagwörter oder Hashtags aufwiesen. Dies unterminiert die Bemühungen, vertrauenswürdige -F acebook: Eine Recherche des ZDF Magazins Royale Informationsquellen anzubieten.32 - gemeinsam mit der Initiative Who Targets Me - analysierte von April bis September 2021 mittels der Die Fallbeispiele zeigen, dass Maßnahmen wie Datenspenden von mehr als 17.000 Nutzer:innen Facebooks Werbebibliothek oder der Info-Banner 134.000 maßgeschneiderte Werbeanzeigen. von TikTok in der Praxis oft mangelhaft umgesetzt Die Analyse weist unter Verwendung einer wurden. Bei der Stärkung der Forschungsgemeinschaft alternativen Werbebibliothek nach, dass tausende erweisen sich wiederum Bedenken hinsichtlich des der geschalteten politischen Werbeanzeigen in Schutzes der Privatsphäre als größere Herausforderung. Facebooks Werbebibliothek fehlten. Darunter Bekenntnisse zum Vorgehen gegen Fake-Accounts befanden sich insbesondere auch Werbeanzeigen wurden stellenweise nicht erfüllt. Da der CoPD auf von Parteien, der Bundesregierung sowie von inhaltlicher Ebene kaum Regeln beinhaltet, wird der Ministerien. Die Projektverantwortlichen warfen in Umgang mit Falschinformationen vor allem durch die der Folge Facebook grobe Fehleinschätzungen bei der Gemeinschaftsstandards geregelt. Einstufung von Werbeanzeigen vor.29 Eine Analyse des Recherchezentrums CORRECTIV zeigt zudem, dass bei Gemeinschaftsstandards der Sperrung politischer Werbung teilweise selektiv und nicht konsequent vorgegangen wurde.30 Unter Falschinformationen fassen die Plattformanbieter in ihren Gemeinschaftsstandards gemeinhin Integrität der Dienste Meldungen, die von externen Faktenprüfer:innen als falsch eingestuft wurden. Die meisten als -T ikTok: Als Unterzeichner des CoPD erkennt falsch eingestuften Inhalte werden nicht von TikTok an, wie wichtig es ist, die Bemühungen zur den Plattformen entfernt, sondern lediglich Schließung von Fake-Accounts zu intensivieren. weniger stark verbreitet, indem sie weiter unten Eine Untersuchung der Internetfirma Mozilla legt im News Feed anzeigt werden. Dennoch existieren jedoch dar, dass während der Bundestagswahl 2021 Ausnahmen. Beispielsweise entfernen Facebook gefälschte Konten mit politisch-propagandistischen und Instagram Falschinformationen, die gegen Inhalten tausende Nutzer:innen erreichten. So gab es Gemeinschaftsstandards verstoßen - darunter unter anderem einen gefälschten TikTok Account (@ Inhalte über den Wahlprozess, die Menschen von derbundestag) mit 14,1K Followern und 130,8K Likes, der Stimmabgabe abhalten könnten.33 Auf Twitter der AfD-Politiker:innen prominent herausstellte.31 besteht für falsche oder irreführende Inhalte gegen
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen 11 die Integrität staatsbürgerlicher Prozesse ebenfalls des verschwörungsideologischen Milieus, die Möglichkeit zur Entfernung.34 Auf YouTube sind Desinformationen mit einer großen Öffentlichkeit zu zudem auch Falschinformationen zur Wählbarkeit teilen. Dabei waren die Manipulation von Umfragen, von Kandidat:innen nicht erlaubt.35 TikTok untersagt Handlungsanweisungen zu „Shitstorming“ gegenüber zusätzlich sogar bestimmte verschwörungsideologische Behörden und Institutionen sowie die Erstellung Inhalte36, während Facebook keine Inhalte von eigener Umfragen im Kontrast zu repräsentativen Politiker:innen prüfte. Anders als in der Vorwoche der Erhebungen wiederkehrende Elemente der US-Wahl 2020, sahen die meisten anderen Anbieter Kommunikation.41 keine Sonderrechte vor und moderierten sämtliche Inhalte auf Basis ihrer Standards. Laut Facebook -F acebook: Forscher:innen des ISD fanden erhalten durch Politiker:innen geteilte und zuvor als zudem heraus, dass insgesamt 21 der jeweils falsch eingestufte Inhalte eine geringere Verbreitung im 100 meistgeteilten öffentlichen Beiträge zu News Feed. den drei Spitzenkandidat:innen aus 58.858 Facebook-Beiträgen vom 1. Februar bis 1. Juli Durchsetzung 2021 Falschinformationen oder Anspielungen auf Verschwörungserzählungen enthielten. Dabei war Im Umgang mit Falschinformationen setzen die Annalena Baerbock mit 18 Beiträgen im Vergleich Anbieter sozialer Netzwerke vor allem auf die zu Olaf Scholz und Armin Laschet deutlich Zusammenarbeit mit externen Faktenprüfer:innen. So häufiger Ziel von Verschwörungsmythen, Des- und arbeitet Facebook in Deutschland beispielsweise seit Falschinformationen.42 Eine Studie des Sustainable einigen Jahren mit den Nachrichtenagenturen AFP, DPA Computing Lab (SCL) und der Wirtschaftsuniversität und dem Recherchezentrum CORRECTIV zusammen.37 Wien (WU) zeigt außerdem, dass etwa 6,7 % aller TikTok hingegen startete seine Zusammenarbeit Facebook-Beiträge vom 15. bis 31. März 2021 mit mit externen Faktenprüfer:innen erst wenige Schlagwort- beziehungsweise Hashtag-Bezug zur Wochen vor der Bundestagswahl 2021.38 Nachdem Bundestagswahl 2021 potenziell rechtswidrige Faktenprüfer:innen einen Inhalt identifiziert und geprüft Inhalte, Desinformation oder Verletzungen des haben, wird dieser in der Regel mit einem Hinweis bzw. Wahlrechts darstellten. Dabei waren mehr als 90 % Label versehen und seine Verbreitung eingeschränkt. der Inhalte Desinformationen, etwa 35 % verstießen gegen die Gemeinschaftsstandards und 4 % waren Gemeinschaftsstandards bieten kaum Schutz vor wahrscheinlich rechtswidrig im Sinne der Tatbestände Falschinformationen des Strafgesetzbuchs.43 -T elegram: Eine Untersuchung des ISD Germany -T witter: Für Twitter analysiert dieselbe Studie von SCL zeigt, dass die jeweils 100 meistgelesenen Beiträge und WU, dass etwa 5,6 % aller wahlbezogenen Tweets zu den drei Spitzenkandidat:innen aus qualitativ vom 15. bis 31. März 2021 problematisch waren. ausgewählten Telegram-Kanälen des rechtsextremen Von den als problematisch identifizierten Inhalten und verschwörungsaffinen Milieus39 im Zeitraum weisen alle Desinformationen auf, 14,5 % verstießen 1. Februar bis 31. Juli 2021 zu einem hohen Anteil gleichzeitig gegen die Gemeinschaftsstandards.44 Falschinformationen oder Anspielungen auf Im Zuge der Landtagswahl in Sachsen-Anhalt am 6. Verschwörungserzählungen enthielten: 43 der Juni 2021 beobachtete das Team von ISD Germany Posts über Baerbock (Bündnis 90/Die Grünen), 26 deutschsprachige Beiträge in den sozialen Medien, der Posts über Laschet (CDU) und 17 der Posts über vor allem auf Twitter und Facebook. So stieg Scholz (SPD).40 Das Bedrohungspotenzial, das von beispielsweise die Anzahl von Beiträgen mit dem Verschwörungsideolog:innen auf Telegram ausgeht, Hashtag #Wahlbetrug, der in den Tagen vor der wird auch in einer Analyse des Center für Monitoring, Wahl erst wenige Male genutzt worden war, nach Analyse und Strategie (CeMAS) erkenntlich. Verkündung der ersten Hochrechnungen deutlich: der Die analysierten Telegramkanäle ermöglichten Hashtag wurde innerhalb von 24 Stunden 4.860-mal es unter anderem zentralen Akteur:innen und im Zeitraum 1. Juni bis 14. Juni 2021 6.480-mal
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen 12 verwendet. Neben Twitter wurden Desinformationen Risiken algorithmischer über die Wahl auch über Facebook, Telegram oder Bitchute, sowie über die Blogs und Newsletter rechter Empfehlungssysteme Influencer wie Roland Tichy, Boris Reitschuster und Beiträge und Kommentare auf großen Online- Oliver Janich verbreitet.45 Plattformen werden durch algorithmische Empfehlungssysteme priorisiert und dargestellt. Nachweislich falsche Inhalte ohne Warnhinweise auf Sie treffen eine grundlegende Auswahl großer Facebook ersichtlich Informationsmengen und sortieren diese nach Kriterien so, dass möglichst relevante Informationen - F orscher.innen der Bewegung Avaaz fanden heraus, zuerst angezeigt werden.48 Damit kommt den dass mehr als 50 % der 137 Facebook-Beiträge Empfehlungssystemen eine elementare Rolle bei der vom 1. Mai bis 31. Juli 2021, die von unabhängigen Verbreitung und Verstärkung problematischer Inhalte Faktenprüfer:innen als falsch eingestufte Narrative auf den Plattformen zu. Bisher wurden für Deutschland über Annalena Baerbock enthielten, ohne kaum Regeln eingeführt, die Empfehlungssysteme Warnhinweise ersichtlich blieben. Dabei waren regulieren. Dennoch enthalten der CoPD und die nahezu identische Beiträge manchmal mit und Gemeinschaftsstandards sowie der Medienstaatsvertrag manchmal ohne Warnhinweis versehen - ein Indiz für bereits einzelne Bestimmungen zu Priorisierung und unzureichende Erkennungssysteme, bei denen auch Transparenz. KI zum Einsatz kommt.46 Verhaltenskodex und Gemeinschaftsstandards -E ine Untersuchung des ISD legt zudem dar, dass Beiträge vom 1. Januar 2020 bis 13. Juni 2021, die Die Unterzeichner des CoPD49 verpflichten sich die Allianz der Weltärzte (WDA) oder ihre Mitglieder dazu, in Technologien zu investieren, um relevante, erwähnten und bereits als falsch eingestufte, auf authentische und maßgebliche Informationen - Deutsch verfasste Narrative beinhalteten, seltener mit wo möglich - in der Suche, in Feeds oder anderen einem Warnhinweis versehen waren als Beiträge auf automatisch geordneten Verbreitungskanälen zu Englisch. Dabei unterschieden sich die Beiträge oft nur priorisieren. Darüber hinaus geben die meisten Anbieter marginal von bereits mit einem Hinweis versehenen großer Plattformen in ihren Gemeinschaftsstandards Beiträgen. Darüber hinaus fanden die Forscher:innen an, die Verbreitung problematischer Inhalte wie heraus, dass auch mit einem Warnhinweis versehene entlarvte Falschinformationen zu verringern.50 YouTube Beiträge immer noch zehn- oder hunderttausende verweist sogar darauf, dass 2019 Änderungen an den Aufrufe erhielten.47 Empfehlungssystemen eingeführt wurden, um die Verbreitung problematischer Falschinformationen Die Fallbeispiele veranschaulichen, dass und grenzwertiger Inhalte zu begrenzen.51 Im CoPD Falschinformationen im Kontext der legen sich die Unterzeichner außerdem darauf fest, Bundestagswahl 2021 auf einigen Plattformen Forscher:innen und Faktenprüfer:innen generelle stark verbreitet waren. Besonders problematisch Informationen über ihre Algorithmen bereitzustellen. ist der Befund, dass nachweislich falsche Inhalte teilweise nur selektiv mit Warnhinweisen versehen Durchsetzung waren. Damit rücken auch die Bedingungen und Regeln für algorithmische Empfehlungssysteme, die Bei der Weiterentwicklung algorithmischer die Reichweite problematischer Inhalte im Rahmen der Empfehlungssysteme setzen die Anbieter unter Kuratierung weniger prominent darstellen sollen, als anderem aufs Feedback der Nutzer:innen.52 In den zusätzliche Komponente in den Fokus dieses Berichts. letzten Jahren haben einige Anbieter außerdem einen Austausch mit externen Expert:innen angestoßen. Facebook hat sich dabei zum Ziel gesetzt, dass jedes eingeführte System Schutz vor Manipulation und Gaming bietet, persönliche Voreingenommenheit
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen 13 vermeiden und die Stimmen der Minderheiten schützen Die Enthüllungen der Whistleblowerin Frances Haugen müsse.53 Ein Blick auf die Analysen im Kontext der geben Einblicke, die bislang verwehrt blieben. So Bundestagswahl 2021 zeigt jedoch, dass gewisse führten Facebooks Änderungen des NewsFeed Stimmen im Feed durch die Empfehlungssysteme Algorithmus im Jahr 2018 dazu, dass Verlage und bevorzugt werden. sogar politische Parteien verstärkt auf sensationelle und empörende Inhalte setzten, da dies zu mehr - Facebook: Eine Untersuchung des Projektes Engagement auf Facebook führte. Hintergrund war Citizen Browser der Organisation The Markup in eine neue Formel, mit der gemessen wurde, wie Zusammenarbeit mit der Süddeutschen Zeitung (SZ) viel sinnvolle, soziale Interaktion (engl.: meaningful belegt auf Basis der Daten eines politisch diversen interaction) ein Beitrag auslöst. Um Sichtbarkeit Panels von 473 deutschsprachigen Nutzer:innen, dass zu gewinnen, mussten Beiträge daher möglichst Beiträge AfD-bezogener Seiten vom 20. Juli bis 16. viel „hochwertiges Engagement“ erhalten (wie September 2021 dreimal so häufig in den NewsFeeds beispielsweise Reaktionen oder Antworten auf der Nutzer:innen vorzufinden waren, wie die einer Kommentare). Nach einem internen Punktesystem anderen Partei.54 Eine Studie von HOPE NOT HATE war ein „Gefällt mir“ einen Punkt, eine Reaktion, ein zeigt außerdem, dass Beiträge der offiziellen AfD-Seite erneutes Teilen ohne Text oder eine Antwort auf vom 1. Mai bis 30. Juni 2020 im Schnitt rund 15-mal eine Einladung fünf Punkte und ein substantieller häufiger als die der CDU-Seite und 5-mal häufiger Kommentar, eine Nachricht oder ein erneutes Teilen als die der Seite von Bündnis 90/Die Grünen geteilt 30 Punkte wert. Zusätzliche Multiplikatoren wurden wurden.55 Eine ethnografische Analyse des ISD legt hinzugefügt, je nachdem, ob die Interaktion zwischen darüber hinaus dar, dass insbesondere AfD-bezogene Mitgliedern einer Gruppe, Freunden oder Fremden Seiten und Gruppen Zweifel am Wahlergebnis in stattfand.58 Trotz genannter Beschwerden wurden die Deutschland auf unterschiedlichen Plattformen Probleme erst ab August 2021 in einigen europäischen säten.56 Dies legt nahe, dass problematische Inhalte Ländern im Rahmen einer Testphase angegangen.59 priorisiert worden sein könnten. Medienstaatsvertrag - I nstagram: Eine andere Untersuchung von SZ und AlgorithmWatch auf Grundlage von mehr als Um Meinungsvielfalt und Chancengleichheit auch 6.000 Beiträgen von mehr als 100 Accounts von im Netz zu ermöglichen, verabschiedeten die 16 Politiker:innen und Parteien belegt außerdem, Landesparlamente im Jahr 2020 den Staatsvertrag zur dass der Empfehlungsalgorithmus von Instagram Modernisierung der Medienordnung in Deutschland bestimmte Themen und Parteien - insbesondere die (Medienstaatsvertrag - MStV) als Ergebnis eines AfD - weiter oben im Feed platzierte. Dabei blieben die mehrjährigen Prozesses. Dieser löste den bisherigen Entscheidungsparameter letztlich unklar - Facebook Rundfunkstaatsvertrag ab und führte unter verwies in einer Antwort auf eine Anfrage der anderem umfassende Pflichten für sogenannte Forscher:innen einzig darauf, dass inhaltliche Kriterien Medienintermediäre (MI) wie Facebook oder Google keine Rolle bei der Platzierung von Beiträgen spielten.57 ein, die im Rahmen einer spezifischen MI-Satzung der Länder weiter konkretisiert wurden. Soweit Jede Verzerrung der Rangfolge und Darstellung Medienintermediäre Einfluss auf die öffentliche von Inhalten im Feed wirkt sich auf tausende Meinungsbildung haben, sind sie nach MStV zur wahlberechtigte Nutzer:innen und ihre Offenlegung der zentralen Kriterien einer Aggregation, Meinungsbildung aus. Eine Untersuchung Selektion und Präsentation von Inhalten und ihre der Hintergründe von Verzerrungen ist Gewichtung einschließlich der Funktionsweise ihrer jedoch einzig durch eine verlässliche Algorithmen verpflichtet. Außerdem dürfen sie Transparenzverpflichtung und weiterführende keine einzelnen journalistisch-redaktionellen Inhalte Informationen zur Funktionsweise algorithmischer systematisch und ohne Rechtfertigung benachteiligen Empfehlungssystemen möglich - ein Aspekt, den (Diskriminierungsfreiheit). Eine Diskriminierung liegt auch der Medienstaatsvertrag aufgreift. konkret dann vor, wenn ohne sachlich gerechtfertigten
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen 14 Grund von genannten Kriterien zugunsten oder Informationsangebote zur Wahl prioritär behandelt. zulasten eines bestimmten Angebots systematisch Auf Facebook News - ein gesonderter Bereich abgewichen wird oder Kriterien Angebote unmittelbar für journalistische Inhalte - wurde ein spezieller oder mittelbar unbillig systematisch behindern. Themenbereich zur Bundestagswahl aufbereitet und Zudem müssen sich alle Telemedien mit journalistisch- Beiträge von Medienpartner:innen in gesonderten redaktionellen Angeboten an anerkannte Kategorien (unter anderem „Die Wahlkampfthemen“) journalistische Grundsätze halten, was jedoch nicht Teil aufgegriffen. Zudem bestand am Wahltag und am dieser Untersuchung ist. Schließlich enthält der MStV Folgetag der gesamte obere Bereich der Facebook auch eine Kennzeichnungspflicht für automatisiert News Startseite aus kuratierten Artikeln zur Wahl.63 erstellte Inhalte oder Mitteilungen, die im nächsten Ob für dieses Angebot die Regeln für MI gelten, ist Kapitel angesprochen werden. Die Prüfung von jedoch unwahrscheinlich - vielmehr handelt es sich bei Verstößen obliegt den Landesmedienanstalten, die Facebook News womöglich um eine medienrechtliche Anzeigen erhalten und prüfen können60 – Befugnisse, Qualifizierung als Medienplattform, welche zwar einen die insbesondere von der Europäischen Kommission diskriminierungsfreien und chancengleichen Zugang kritisch gesehen werden.61 für Inhalteanbieter gewährleisten müssen, nicht jedoch dem Kriterium der Diskriminierungsfreiheit Durchsetzung unterliegen.64 Anders sieht es hingegen in Fällen aus, in denen bestimmte Inhalte priorisiert im Obwohl die konkretisierenden Regelungen der MI- allgemeinen NewsFeed oder den Suchergebnissen Satzung in den Bundesländern erst zum 1. Januar dargestellt werden. 2022 in Kraft treten sollen, sind Medienintermediäre bereits seit Inkrafttreten des MStV in dessen Dieser Befund zeigt, dass gewisse Anwendungsbereich einbezogen. Auf dieser Spannungsverhältnisse unter den Regelwerken gegen gesetzlichen Grundlage beanstandeten die digitale Bedrohungen im Netz existieren. Denn während Landesmedienanstalten bereits Verstöße gegen der CoPD eine Priorisierung relevanter, authentischer die Diskriminierungsfreiheit. und maßgeblicher Informationen festschreibt, beinhaltet der MStV Regeln zur Diskriminierungsfreiheit So sprach die Kommission für Zulassung und Aufsicht für die Angebote von Medienintermediären. (ZAK) im Juni 2021 in einem von der Medienanstalt Hamburg/Schleswig-Holstein (MA HSH) gegen Google eingeleiteten Verfahren eine Beanstandung wegen Verletzung der Diskriminierungsfreiheit aus. Gegenstand des Verfahrens war eine Kooperation von Google und dem Bundesministerium für Gesundheit (BMG), die eine priorisierte Darstellung von Inhalten des nationalen Gesundheitsportals www.gesund.bund. de in der deutschen Version der Google Suchmaschine vom 10. November 2020 bis zum 10. Februar 2021 umfasste. In dem Kontext wurde einer Beschwerde des betroffenen Betreibers von www.apotheken- umschau.de stattgegeben. Die ZAK stellte fest, dass durch diese Kooperation eine unbillige Behinderung anderer Anbieter journalistisch-redaktioneller Inhalte stattgefunden habe.62 Die Kooperation zwischen Google und dem BMG wurde inzwischen beendet. Im Kontext der Bundestagswahl 2021 haben Anbieter wie Google und Facebook außerdem bestimmte
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen 15 Inwiefern haben Parteien zu einem fairen digitalen Wahlkampf beigetragen? Abseits der Regelwerke für Plattformanbieter gaben Eine Auswertung des Leibniz-Instituts für sämtliche im Bundestag vertretenen Parteien außer Medienforschung | Hans-Bredow-Institut (HBI) im der AfD im Kontext der Bundestagswahl 2021 freiwillige August 2021 anhand eines Fragenkatalogs, der auf Selbstverpflichtungen für den digitalen Wahlkampf den Kriterien des Leitfadens für digitale Demokratie ab. Vorausgegangen war die Initiative Campaign basiert, dokumentiert eine hohe Übereinstimmung Watch, an der sich neben dem ISD Germany auch der im Bundestag vertretenen Parteien - außer der AfD 21 weitere zivilgesellschaftliche Organisationen als - mit den Zielen und Verpflichtungen des Leitfadens Partner beteiligten. Um eine „Firewall der Demokratie“ für digitale Demokratie. So ernannten alle Parteien zu bauen, legte die Initiative Anfang Juni 2021 einen Verantwortliche für den (digitalen) Wahlkampf. CDU, Leitfaden für digitale Demokratie mit konkreten SPD, Bündnis 90/Die Grünen, FDP und die LINKE Handlungsempfehlungen vor und verschickte ihn an die bekannten sich außerdem dazu, ihre Werbung und politischen Parteien.65 Dieser umfasste Bestimmungen andere Inhalte als der Partei zugehörig zu kennzeichnen - basierend auf den Ansichten und Ideen der beteiligten und Inhalte vor Verbreitung auf ihre Richtigkeit Partner - in folgenden Bereichen: Transparenz, hin zu überprüfen. Auch gaben einige Parteien an, Grundrechtsschutz, Desinformation und digitale Mitarbeiter:innenschulungen durchzuführen. Die Gewalt. Dazu gehörten etwa die Kennzeichnung eigener meisten Parteien verzichteten außerdem auf durch Inhalte, die Einschränkung von Targeting-Kriterien auf Doxing gewonnene Informationen. Dennoch wurde auch Ort und Alter in der Zielgruppenansprache und die Nachbesserungsbedarf festgestellt. So veröffentlichte Kennzeichnung von Inhalten, Profilen und Seiten, die nur Bündnis 90/Die Grünen detaillierte Berichte über automatisiert erstellt und betrieben wurden (im Einklang eingesetzte digitale Werbemaßnahmen. Andere mit der Kennzeichnungspflicht für automatisiert Parteien verwiesen in diesem Zusammenhang lediglich erstellte Inhalte oder Mitteilungen im Sinne des MStV). auf die Werbebibliotheken von Plattformen. Eine Einschränkung der Targeting-Kriterien auf die Parameter „Ort“ und „Alter“ - eine zentrale Vorgabe von Campaign Watch - wurde zudem von keiner der befragten Parteien übernommen.66
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen 16 Die Abbildung der Stiftung Neue Verantwortung (SNV) September 2021 relativ konstant rund um den visualisiert die Umsetzung pro Vorgabe des Leitfadens. Durchschnitt aller Fraktionen liegt, bleibt die Quote Dabei wird zwischen (weitgehender) und teilweiser der AfD meist deutlich oberhalb des Durchschnitts. Übereinstimmung unterschieden. Außerdem wurden die Accounts von AfD-Abgeordneten deutlich öfter privat gestellt als die der anderen. Für Während die Auswertungen von HBI und SNV auf den eine Untersuchung der Gründe würde es jedoch Selbstverpflichtungen der Parteien und einer Befragung einer Inhaltsanalyse bedürfen, die bereits gelöschte von ihnen basieren, wurde die Durchsetzung der Daten enthält - ein möglicher Verstoß gegen die Selbstverpflichtungen und das digitale Verhalten der Gemeinschaftsstandards von Twitter. Bisherige Studien Parteien in der Praxis bisher kaum analysiert. (siehe Abschnitt „Falschinformationen“) bestätigen jedoch, dass insbesondere von AfD-zugehörigen Seiten Für Twitter veranschaulicht eine weitere Analyse Falschinformationen und Verschwörungserzählungen des HBI interessanterweise, dass Tweets von verbreitet wurden.67 Damit liegt nahe, dass der Bundestagsabgeordneten einzelner im Bundestag Tweetschwund durch eine Umstellung auf „Privat“ vertretener Parteien überdurchschnittlich häufig mit der Verbreitung problematischer Inhalte in verschwanden. Während der Tweetschwund der Verbindung stehen könnte. Weitere Analysen sind meisten Bundestagsfraktionen zwischen April und hier jedoch unerlässlich.
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen 17 Fazit: Unzureichende und fehlerhafte Durchsetzung Dieser Bericht konnte auf Basis einzelner kritischer darstellen, mitunter mangelhaft umgesetzt. Gleichzeitig Fallstudien Defizite bei der Durchsetzung von Regeln stellen diese möglicherweise ein Spannungsverhältnis gegen digitale Bedrohungen im Netz im Kontext der zur im MStV vorgesehenen Diskriminierungsfreiheit Bundestagswahl 2021 identifizieren. So konnten dar. Überdies gab es Belege dafür, dass Facebooks digitale Gewalt sowie Falsch- und Desinformationen Werbebibliothek unvollständig war. Bei politischen trotz NetzDG, CoPD und Gemeinschaftsstandards Anzeigen selbst verzichteten alle politische nicht ausreichend eingedämmt werden. Parteien auf eine weitgehende Einschränkung des Microtargeting (der zielgerichteten Ansprache von Rechtswidrige Inhalte wurden teilweise zu spät oder Nutzer:innen basierend auf persönlichen Daten gar nicht entfernt oder trotz NetzDG-Beschwerden zu deren Onlineverhalten). Trotzdem bleibt positiv auf Grundlage der Gemeinschaftsstandards hervorzuheben, dass alle im Bundestag vertretenen bearbeitet. Dies dürfte unter anderem Verzerrungen Parteien bis auf die AfD erstmals Selbstverpflichtungen in den Transparenzberichten nach NetzDG zur Folge für den digitalen Wahlkampf abgaben. haben. Falschinformationen waren überdies im Kontext der Bundestagswahl 2021 weit verbreitet Die in diesem Bericht aufgegriffenen und vielfach trotz bereits erfolgter Faktenprüfung Forschungsbefunde im Kontext der Bundestagswahl für die aufgegriffene Erzählung ohne Warnhinweis 2021 können eine Grundlage für die Weiterentwicklung weiterhin ersichtlich. Diese Befunde legen außerdem der Regelwerke für Plattformanbieter und politische den Verdacht nahe, dass automatisierte Systeme zur Parteien im In- und Ausland bieten. Trotzdem Erkennung problematischer Inhalte noch nicht so unterliegt der Bericht der Limitation, dass vorliegende weit entwickelt sind, wie es die Anbieter öffentlich Forschungsarbeiten große Online-Plattformen wie verkünden. Darüber hinaus trugen automatisierte Facebook bevorzugt untersuchten und dabei andere Empfehlungssysteme dazu bei, dass Inhalte bestimmter Anbieter weniger berücksichtigt blieben. Der weiterhin politischer Akteur:innen - insbesondere AfD-zugehörige begrenzte Zugang zu Plattformdaten - gerade im Seiten - im Feed bevorzugt wurden - ein Befund, Bereich der Reichweite problematischer Inhalte der Aussagen der Anbieter zur Einschränkung der - sowie die unterschiedliche Beschaffenheit der Verbreitung problematischer Inhalte widerspricht. Denn Plattformen erschwerte zudem eine systematische und vor allem AfD-zugehörige Seiten säten Zweifel an dem vergleichende Analyse der Durchsetzung bestehender Wahlprozess sowie Wahlergebnis und verbreiteten Regelwerke. Eine Gesamtevaluation bestehender Verschwörungserzählungen. Zudem waren auch Info- staatlicher und selbstregulativer Regelwerke ist daher Banner, die vertrauenswürdige Informationen prioritär nicht möglich.
Bundestagswahl 2021 Eine Evaluation der Regeln gegen digitale Bedrohungen 18 Politischer Ausblick Im Dezember 2020 veröffentlichte die Europäische Integrität ihrer Dienste vor manipulativen Techniken Kommission einen Vorschlag für ein Gesetz über schützen. Zu möglichen Instrumenten gehören digitale Dienste („Digital Services Act“, DSA), das etwa die Beendigung von Werbeeinnahmen für künftig einheitliche horizontale Regeln für Anbieter bestimmte Inhalte, die Anpassung der algorithmischen von Vermittlungsdiensten, einschließlich der Online- Empfehlungssysteme oder der Online-Schnittstellen. Plattformen, einführen und einer Zersplitterung im Systemische Risiken umfassen hier Risiken, die durch europäischen Rechtsraum entgegenwirken soll.68 die Verbreitung illegaler Inhalte entstehen (darunter illegale Hassrede), die Auswirkungen auf die Ausübung Der Vorschlag der Kommission verpflichtet Online- der Grundrechte haben (einschließlich der Freiheit Plattformen zu Melde- und Abhilfeverfahren (sog. der Meinungsäußerung), oder die absichtliche und „Notice-and-action-Verfahren“) für illegale Inhalte oftmals koordinierte Manipulation der Plattform, oder Inhalte, die gegen die Gemeinschaftsstandards welche absehbare Auswirkungen auf Gesundheit, verstoßen. Die vorgeschlagenen Haftungsregeln den gesellschaftlichen Diskurs, Wahlprozesse, die enthalten zudem Haftungsausschlüsse für Anbieter, öffentliche Sicherheit sowie den Schutz Minderjähriger die auf Eigeninitiative freiwillige Tätigkeiten zur bedeuten können. Erkennung, Feststellung und Entfernung illegaler Inhalte durchführen (sog. „Good Samaritan Clause“). Anfang 2022 sollen die Verhandlungen im Trilog- Zudem sieht der Vorschlag einen Beschwerde- Verfahren zwischen Rat, Parlament und Kommission und Rechtsbehelfsmechanismus, Vorgaben für über den endgültigen Gesetzestext beginnen, mit „Trusted Flaggers“ (also akkreditierte Personen dem Ziel, dass die Regelungen Ende 2022 umgesetzt und Organisationen, die rechtswidrige Inhalte werden. Mehrfach wurde bereits von deutscher Seite melden) sowie Transparenzpflichten hinsichtlich der die Komplementarität des NetzDG und des DSA betont, Moderation von Inhalten vor. Transparenzberichte wodurch nach Inkrafttreten des DSA schlicht ein sollen wie beim NetzDG Daten über Beschwerden Änderungs- und Anpassungsbedarf geprüft werden und Löschungen offenlegen. Dabei soll zwischen müsse.69 Tatsächlich beinhaltet der DSA Regelungen, Meldungen auf gesetzlicher Grundlage oder aufgrund die sich teilweise mit denen des NetzDG und des MStV der Gemeinschaftsstandards unterschieden werden. überschneiden, wodurch eine Implementierung in Offengelegt werden soll auch, in welchen Fällen Deutschland ohne Gesetzesnovellierungen kaum Anbieter eigenständig Inhalte gelöscht oder gesperrt möglich sein wird. haben. Im Bereich der Online-Werbung sollen ebenfalls Transparenzpflichten eingeführt werden. Nutzer:innen Der DSA steht im Einklang mit den Zielen des sollen Informationen darüber erhalten, anhand welcher Europäischen Aktionsplan für Demokratie (EDAP)70 grundlegenden Kriterien bestimmt wird, welche zur Förderung freier und fairer Wahlen, Stärkung Werbung ihnen angezeigt wird. der Medienfreiheit sowie Bekämpfung von Desinformation. Im Rahmen des Aktionsplans hat Sehr große Online-Plattformen, deren Dienste von die Kommission im November 2021 zusätzlich mehr als 45 Millionen Menschen in der Europäischen Rechtsvorschriften für politische Werbung, Wahlrecht Union genutzt werden, sollen zusätzliche und Parteienfinanzierung vorgelegt.71 Mit dem Sorgfaltspflichten auferlegt werden. Dazu gehören Vorschlag sollen unter anderem Techniken für Targeting Erklärungen zu automatisierten Empfehlungssystemen und Amplifikation von politischer Werbung verboten und dazugehörige Einstellungsmöglichkeiten für werden, bei denen sensible personenbezogene Daten Nutzer:innen, Transparenz-Datenbanken für Online- wie ethnische Herkunft, religiöse Überzeugungen Werbung, jährliche Audits sowie Risikobewertungen oder sexuelle Orientierung verwendet oder abgeleitet hinsichtlich der möglichen Auswirkungen auf die werden. Solche Techniken sollen jedoch noch nach Grundrechte der Bürger:innen. Die Plattformen „ausdrücklicher Zustimmung“ der betroffenen sollen demnach die von ihren Systemen Person zulässig sein. Erstmals soll es zudem strenge ausgehenden Risiken bewerten, um geeignete Transparenzanforderungen zu verwendeten Kriterien Risikomanagementinstrumente zu entwickeln, die die sowie Instrumenten oder Methoden beim Einsatz
Sie können auch lesen