LEITLINIEN FÜR JUGEND GERECHTE SOZIALE NETZWERKE - Deutscher ...
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
LEITLINIEN FÜR JUGENDGERECHTE SOZIALE NETZWERKE Im Projekt „Social Digital Responsibility: Die Themen und Schwerpunkte wurden Jungen Verbraucher*innen eine Stimme in einem Barcamp von jungen Menschen für aktive Teilhabe an Netzwerken und selbst gesetzt. In Workshops mit Expert* Plattformen geben“ haben junge Men innen vertieften sie die Themen und schen Forderungen und Leitlinien für formulierten miteinander Leitlinien für jugendgerechte Soziale Netzwerke und jugendgerechte Netzwerke. Der Deutsche Platt formen formuliert. Politik und An Bundesjugendring als Interessenvertre bieter sozialer Netzwerke und Plattfor tung von Kindern und Jugendlichen brach men sind aufgefordert, diese Leitlinien te Positionen und Forderungen von rund als Basis für ein Nachsteuern einzuset sechs Millionen jungen Menschen ein. zen, junge Menschen viel mehr in den Das Projekt wurde vom Deutschen Weiterentwicklungsprozess von sozialen Bundesjugendring umgesetzt und vom Netzwerken und Plattformen einzu Bundesministerium der Justiz und für beziehen. Verbraucherschutz gefördert. 2
(DATEN-) SOUVERÄNITÄT 1 TRANSPARENZ 2 DIVERSITÄT UND INKLUSION 3 MENSCHENWÜRDIGES MITEINANDER 4 SCHUTZ UND HILFE (AWARENESS) 5 GESELLSCHAFTLICHE KONTROLLE 6 GEMEINSAME VERANTWORTUNG 7 3
ICH KANN ÜBER MEINE DATEN SELBST BESTIMMEN! Junge Verbraucher*innen fordern Einstel lungen, die Datensouveränität garantie ren. Sie wollen selbst entscheiden, welche Daten sie wann und wem preisgeben. Ein gutes und sicheres Nutzen des Angebo tes muss auch ohne Abgabe persönlicher Daten über das technisch und gesetzlich Notwendige hinaus möglich sein. 7
ICH WEISS JEDERZEIT, WAS MIT MEINEN DATEN UND BILDERN PASSIERT! Junge Verbraucher*innen wollen je Zusätzlich sollen Plattformbetreiber ex derzeit abfragen können, wann welche plizit um Erlaubnis bitten, wenn sie Bilder Daten abgegeben wurden und was damit weiter nutzen wollen. Sie müssen nach passiert. Eine solche Funktion muss gut vollziehbar machen, welchen Weg das sichtbar, der Zeitraum zur Rückmelde Bild durch das Netz nimmt. User*innen pflicht kurz (zum Beispiel 24 Stunden) wollen ihr Recht am Bild auch rückwirkend und klar definiert sein. Die Rückmeldung geltend machen. muss verständlich aufbereitet und nicht zu „technisch“ sein. 8
ICH KANN MEINE DATEN SCHNELL UND EINFACH LÖSCHEN! Junge User*innen wollen ihre Bilder und Daten einfach löschen können. Bislang verhindern die AGB der Plattformen das oft. Sie höhlen zum Beispiel das Recht am eigenen Bild aus und minimieren die Chance, Bilder zu löschen. 9
ICH KANN EINFACHER NACHVOLLZIEHEN, WARUM MIR BEITRÄGE UND INHALTE ANGEZEIGT WERDEN UND EINFLUSS AUF DIE AUSWAHL NEHMEN. Junge Menschen wollen sehen und ver erzeugten Feed bekommen. Stattdessen stehen können, warum ihnen Beiträge einen, den sie bewusst selbst wählen. und Inhalte vorgeschlagen oder angezeigt Dazu sollen eigene Suchverläufe nicht werden. Sie wollen selbst entscheiden gespeichert werden, wenn jemand das können, dass sie keinen algorithmisch nicht will. 11
UNTER KONTROVERSEN BEITRÄGEN KANN ICH HINWEISE AUF SERIÖSE QUELLEN AUS MEDIEN UND BEHÖRDEN SEHEN. Wer sich innerhalb einer Echokammer oder Bubble bewegt, soll sehen können und angezeigt bekommen, was zuverläs sige Quellen auf journalistischer Grund lage oder Behörden und Wissenschaft zum Thema sagen. 12
HÖHERE KONTROLLE MIT BLICK AUF INTRANSPA RENZ UND MARKTMACHT. ZUGANG ZU DATEN FÜR AUFSICHTSBEHÖRDEN, ZIVILGESELLSCHAFT UND WISSENSCHAFT. Wissenschaft muss Zugang zu anonymi sierten Daten der Netzwerke und Platt schaft kann und soll eine zentrale Rolle formen erhalten, um die Prozesse und dabei spielen. Außerdem müssen Schnitt Entwicklungen zu erforschen. Bisher ge stellen geschaffen werden, mit denen schieht das zu wenig oder wird zu auf eine Beobachtung durch Aufsichtsbehör wändig gestaltet. Dienste müssen aber den und Zivilgesellschaft selbst möglich überprüfbar sein. Unabhängige Wissen- wird – ergänzend zur Wissenschaft. 13
DER WECHSEL ZWISCHEN NETZWERKEN MUSS OFFEN UND INTER OPERABEL SEIN. In der Interoperationalität liegt eine Junge User*innen wollen selbst entschei Chance für mehr Transparenz und Sou den, welche Plattformen sie unterstützen veränität der User*innen. Es entstehen und nutzen wollen. Bislang ist ein Wech offene Schnittstellen. Jede*r kann von sel zwischen Netzwerken und Diensten jedem Anbieter mit anderen Personen nur möglich, wenn alle im Freundeskreis Kontakt aufnehmen. mitziehen und mitwechseln. 14
15
BARRIEREFREIHEIT IST STANDARD UND BILDER HABEN ALTERNATIV-TEXTE. Videos ohne Untertitel oder Bilder ohne Netzwerk – nicht kompatibel. Das schränkt hinterlegten Alternativen Text (ALT) sind junge Menschen mit Behinderung ein. für Menschen mit Einschränkungen in Barrierefreiheit muss Standard sein. sozialen Netzwerken kaum oder gar nicht wahrnehmbar. Betriebs systeme und Zum Beispiel: Zur Grundeinstellung auch Plattformen bieten zwar Assistenz- gehört, dass jedes Bild beim Hochladen Systeme, sie sind aber nicht selbst mit einem ALT-Text beschrieben werden verständlich und teilweise – je nach muss. 16
BARRIEREFREIE INHALTE ERZIELEN EINE HÖHERE REICHWEITE! Barrierefreie Inhalte müssen eine höhere umgesetzt werden können. Barrierefrei Reichweite erzielen und von den Algo heit sollte in der Ausbildung von ITler* rithmen bevorzugt werden. Programmie innen (Studium und Beruf ) in Lehr- und rer*innen in Diensten der Plattformen Studienpläne grundsätzlich enthalten sollten regelmäßig in Sachen Barriere sein! freiheit auf einen aktuellen Stand ge bracht werden, damit neue Funktionen direkt barrierefrei gedacht und in Code 17
KEIN AUSBLENDEN/ BANNING VON MENSCHEN MIT BEHINDERUNG! Junge User*innen kritisieren die Praxis der Inklusion und gegen die Vielfalt auf einiger Netzwerke, Menschen mit Be Plattformen. Grundlage sind meist Algo hinderung zu bannen (deren Beiträge rithmen, die in ihrer Anlage Diversität zu auszublenden und nicht zu zeigen). Das wenig abbilden und Inklusion behindern. Banning verstößt gegen den Gedanken 18
19
ICH KANN HETZER*INNEN EINFACH, SCHNELL UND DAUERHAFT IN ALLEN NETZWERKEN BLOCKIEREN. Hetzer*innen in allen Sozialen Netzwer gezielt eingesetzt. Durch organisierte ken müssen einfach und schnell blockiert Shitstorms von kleinen Gruppen, auch werden können. Hate Speech, Beleidigun Silencing genannt, sollen Menschen gen und Bedrohungen dürfen nicht ein mundtot gemacht werden. Das Gleich fach hingenommen werden. Hass ist ein gewicht von Meinungen ist somit online politisches Mittel und wird als solches ungleich verteilt. 20
ICH KANN DIGITALE GEWALT ANZEIGEN, STRAFVERFOLGUNG AUSLÖSEN UND NACH- VERFOLGEN. Nur was von User*innen gemeldet wird, Hier muss nachvollziehbar sein, was mit kann verfolgt werden. Deswegen ist es einer Anzeige in der Folge passiert. Polizei wichtig, digitale Hassrede und Gewalt und Straf verfolgungsbehörden müssen zur Anzeige zu bringen. Sinnvoll ist das entsprechend geschult werden, um auf Einrichten einer bundesweiten Anzei die Besonderheiten des Digitalen an gemöglichkeit für digitale Straftaten. gemessen reagieren zu können. 21
ICH KANN KOMMENTARE LÖSCHEN ODER DIE KOMMENTARFUNKTION BLOCKIEREN. Eine „Notaus“-Option für Negativ kommentare kann helfen, Hasswellen ab zuschalten. Zudem braucht es einfachere Möglichkeiten, Hasskommentare spurlos zu löschen oder die Kommentarfunktion unter Beiträgen von vornherein zu de aktivieren. 22
23
ICH KANN EINFACH GERICHTSSICHERE BILDSCHIRMFOTOS ALS BEWEIS BEI DIGITALER GEWALT SPEICHERN. Die Beweissicherung bei digitalen Inhal erzeugen lassen. Zudem braucht es ten ist schwierig. Kommentare können Möglichkeiten der anonymen Anzeige, wieder gelöscht werden und Screenshots die bisher nur in einigen Bundesländern sind nicht zwingend gerichtsfest. Eine möglich ist. Lösung: Plug-Ins für den Browser, mit denen sich rechtssichere Bildschirmfotos 24
ICH KANN MICH SICHER UND ANGSTFREI IN ONLINE-RÄUMEN BEWEGEN UND ERHALTE UNTERSTÜTZUNG DURCH HILFS- UND SCHUTZ ANGEBOTE. Für Hilfs- und Schutzangebote muss eine Plattformen eine Pflicht zur Transparenz. höhere Awareness geschaffen werden. Info-Boxen, wie es sie schon unter aus Neben neutralem Aufklärungsmaterial für gewählten YouTube-Videos gibt, können Schule und Jugendarbeit haben auch die eine Möglichkeit sein. 25
COMMUNITY-GUIDELINES UND NETIQUETTE ALS PRÄVENTIVMASSNAHME IN FOREN UND ONLINE- RÄUMEN! Community Guidelines können Foren und Sinne als Präventivmaßnahme und kön andere Online-Räume sicherer machen, nen den Ausschluss von User*innen oder indem sie – bestenfalls demokratische – bestimmten Kommentaren rechtfertigen, Regeln für den allgemeinen Umgang fest ohne die allgemeine Meinungsfreiheit zu legen. Auch Netiquette dienen in diesem gefährden. 26
27
ICH KANN FAKTEN BASIERTE INHALTE PUSHEN UND UNSERIÖ SE BEITRÄGE MIT WARN HINWEISEN VERSEHEN. Junge User*innen wollen eine höhere einzuräumen im Vergleich zu Fake News Sichtbar keit für vertrauenswürdige In oder Werbung. Der Haken ist, dass auch halte und Inhalten, die auf überprüfbare eine kleine organisierte Gruppe an Trollen Fakten basieren. Eine Idee: Eine Voting- Abstimmungen zu ihren Gunsten manipu Funktion, um faktenbasierten Inhalten lieren kann. Unseriöse Beiträge sollen mit per Abstimmung höhere Sichtbarkeit Warnhinweisen versehen werden können. 28
MODERATOR*INNEN HABEN DIE REGELN DER COMMUNITY IM BLICK. Moderator*innen in Online-Räumen sollten demokratisch bestimmt und kon trolliert werden können. Sie sollen ver hindern, dass in Netzwerken und Foren Diskussionen und Inhalte verzerrt wer den. Manipulationen von kleinen organi sierten Gruppen müssen erkennbar sein. 29
ICH KANN BEI BEITRÄGEN QUELLEN GESONDERT ANGEBEN UND BEI ANDEREN EINEN FAKTENCHECK MACHEN. In Beiträgen müssen Quellenangaben ein innenschutzes, online für Klarheit und facher möglich sein, um so Beiträge von Sicherheit sorgen. Junge User*innen wol User*innen besser überprüfen zu können. len eine Möglichkeit, freiwillig um einen Quellenangaben sollten keinen Einfluss Faktencheck ihrer Beiträge durch die auf die begrenzten Zeichenzahlen haben. Community zu bitten. Ab einer gewissen Reichweite in einem sozialen Netzwerk Zusätzlich könnten Qualitätssiegel, analog soll die Überprüfung und Verifizierung zu anderen Bereichen des Verbraucher*- von Inhalten verpflichtend sein. 30
31
SOZIALE NETZWERKE ALS TEIL DES ÖFFENTLICHEN RAUMS SOLLEN DURCH ZIVILGESELLSCHAFT KONTROLLIERT WERDEN. Debatten in Sozialen Netzwerken prägen festlegen und prüfen. Die Zivilgesellschaft den öffentlichen Raum. Junge User*innen sollte im Sinne einer Medienaufsicht An sehen ihre Verantwortung und erwarten bieter sozialer Plattformen als private sowohl von Politik als auch Plattformen, und kommerzielle Akteure kontrollieren dass sie verantwortlich handeln. Alle ge können. meinsam müssen die Regeln aushandeln, 32
KLEINE NETZWERKE MIT OFFENEN UND TRANSPARENTEN STANDARDS MÜSSEN DURCH ÖFFENTLICHE MITTEL GESTÄRKT WERDEN. Junge User*innen können der Markt Alternativen entstehen und wachsen macht der großen Plattformen wenig ent können, brauchen sie Unterstützung aus gegensetzen. Damit zivilgesellschaftlich öffentlichen Mitteln – entsprechend dem geregelte, transparente und kontrollierte Prinzip öffentliches Geld, öffentliches Gut. 33
PROJEKTPHASEN UND METHODEN Der Auftakt mit der Bundesministerin der Justiz und für Ver braucherschutz, Christine Lambrecht sowie mit der Parlamenta rischen Staatssekretärin Rita Hagl-Kehl und dem Staatssekretär Dr. Christian Kastrop, war bei einem Online- Barcamp am 29.05.2021. Die Teilnehmenden setzten im Barcamp die Agenda für die anschließende Workshop-Phase. Bereits dort wurde deut lich, dass junge Verbraucher*innen mehr mitbestimmen, mehr mitwirken und gestalten wollen. Im Juni und Juli 2021 wurden junge Menschen motiviert, ihre Erwar tungen und Ideen für Leitlinien einzubringen und sich näher mit Fragen der Datensicherheit, mehr Transparenz von Algorithmen sowie mit dem Umgang mit Hate-Speech, Cyber-Mobbing, Sexis mus und Rassismus im Netz auseinander zu setzen. Eingeladene Expert*innen vertieften in Workshops die einzelnen Themen mit fachlichen Impulsen. Im Anschluss wurde gemeinsam diskutiert und konkrete Forderungen zum jeweiligen Workshop-Thema formuliert. 34
Teilgenommen haben Interessierte, insbesondere junge Verbrau cher*innen und Fachkräfte aus der Jugendverbandsarbeit. Abschluss der Beteiligungsphase war am 20.08.2021 die Über- gabe der Forderungen an das Bundesministerium der Justiz und für Verbraucherschutz. Staatssekretär Dr. Christian Kastrop nahm die Forderungen stellvertretend entgegen. Durch die enge Zusammenarbeit mit dem BMJV ist aus Sicht des Deutschen Bundesjugendrings sichergestellt, dass die Ergebnisse tatsächlich in politische Prozesse einbezogen werden. Im Interesse der Jugend tritt der Deutsche Bundes- jugendring ebenfalls in den Dialog mit den Netzwerken. Diese waren im Prozess nicht involviert. Junge Menschen sollten einen Raum haben, ohne Einfluss der Anbieter von sozialen Netzwerken ihre Vorstellungen von jugendgerechten sozialen Netzwerken zu formulieren. 35
BARCAMP Das Online-Barcamp am 29.05.2021 zeigte, dass junge Verbrau cher*innen konkrete Vorstellungen haben, wie Soziale Netzwerke und Plattformen im Internet jugendgerechter werden können. Es wurden die Themen für die anschließenden Workshops gesetzt. WORKSHOPS In rund zweistündigen Online-Workshops wurden konkrete Forde rungen und Leitlinien für jugendgerechte Netzwerke und Plattformen formuliert. Basis für die Workshop-Themen waren die genannten Themen aus der Projekt-Auftaktveranstaltung im Online-Barcamp Ende Mai 2021. Es wurden insgesamt 6 Online-Workshops organisiert. » Am 28.06.2021 zum Thema (Daten-) Souveränität mit Kirstin Rohrer von technik4women. » Am 29.06.2021 zum Thema Diversität und Inklusion mit Susanne Böhmig und Carola Werning von der Stiftung barrierefrei kommunizieren. » Am 06.07.2021 von 17:30 – 19:30 Uhr zum Thema Menschenwürdiges Miteinander (No Hate Speech) mit Ulli Grießhammer von Hate Aid. » Am 13.07.2021 von 17:30 – 19:30 Uhr zum Thema Gesellschaftliche Kontrolle der Netzwerke und Plattformen mit Philipp Lorenz-Spreen, Research Scientist am Max-Planck-Institut für Bildungsforschung. » Am 14.07.2021 von 17:30 – 19:30 Uhr zum Thema Transparenz mit Jaana Müller-Brehm vom iRights.Lab. » Am 27.07.2021 von 17:30 – 19:30 Uhr zum Thema Schutz und Hilfe (Awareness) mit Hate Aid und Michael Hebeisen von jugendschutz.net. 36
37
ERWARTUNG Nach der Übergabe der Leitlinien an das Bundesministerium der Justiz und für Verbraucherschutz werden auch die Anbieter die For derungen junger Verbraucher*innen erhalten. Sie sollen als Basis für ein Nachsteuern dienen und deutlich machen, dass junge Men schen viel mehr in den Weiterentwicklungsprozess von sozialen Netzwerken und Plattformen einbezogen werden. 38
Impressum Deutscher Bundesjugendring Mühlendamm 3 10178 Berlin www.dbjr.de info@dbjr.de Redaktion: S haron Maple, Aaron Remus, Michael Scholl (verantwortlich) Visualisierungen: Anja Riese Layout & Satz: Carina Mayer Druck: dieUmweltDruckerei GmbH, Hannover Berlin, September 2021 39
Sie können auch lesen