ARTEFAKTE DER DIGITALISIERUNG - Leonie Dorn - Fixing IT For Women
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
[Leonie Dorn] ARTEFAKTE DER DIGITALISIERUNG Leonie Dorn 58
Artefakte der Digitalisierung Digitale Produkte bestimmen unser Leben in einem immer größeren Ausmaß und werden in immer mehr Bereichen eingesetzt. Sie sind wesentliche Kommunikationswerkzeuge in sozialen Beziehun- gen, Instrumente der öffentlichen und nationalen Sicherheit, produzieren Analysen für Finanzmärk- te, Versicherungen oder staatliche Behörden und helfen bei der Berechnung des Sozialhilfebetrags. Der umfassende Einsatz von digitalen Technologien wird durch die Annahme gerechtfertigt, sie sei- en neutraler und objektiver als Menschen. Die Entscheidungen von Maschinen würden, so heißt es, weniger diskriminieren als voreingenommene Beamte oder Angestellte. Die Texte in diesem Kapitel möchten den Blick auf das gesellschaftliche Umfeld lenken, in denen digitale Produkte entstehen und deren vermeintliche Neutralität relativieren. Die feminist Science and Technology Studies (fSTS), die sich als Geschlechter- und Ungleichheits- forschung speziell mit Technologie auseinandersetzen, weisen in ihren Untersuchungen darauf hin, dass es so etwas wie „neutrale“ Technik nicht geben kann. Sie wird zu ganz bestimmten Zeitpunk- ten, in ganz bestimmten Kulturräumen und unter bestimmten Machtverhältnissen von Menschen hergestellt und sind deshalb stets in diesen Verhältnissen zu verorten. Die fSTS betrachten deshalb auch digitale Technologien als kulturelle Artefakte – als das vom Menschen Gemachte. Informatik ist somit eine soziokulturelle Praxis mit gesellschaftlichen Auswirkungen. In den hier vorgestellten und in ihnen repräsentiert wird. Nicht nur das – es wird auch deutlich, dass digitale Artefakte und Nutzer*innen gegenseitig aufeinander einwirken. Handlungsmöglichkeiten wie auch das Wissen über die Welt, in der wir leben, werden von den technischen Geräten wesentlich mitbestimmt. Tech- nologie ist deshalb nie als geschlechtsneutral oder als frei von Machtverhältnissen zu betrachten. So schreibt die Techniksoziologin Judy Wajcman: In diesem Kapitel werden richtungs- weisende Texte der Geschlechterfor- schung vorgestellt, die sich mit der Einschreibung von Machtverhältnis- sen in digitale Artefakte beschäftigen. (Wajcman 2004:107) In ihnen wird gefragt und erläutert, wo, warum und welche soziokulturellen Ordnungen in technischen und informatischen Gegenstän- den repräsentiert werden. Sie gehen der Frage nach, wie sich gesellschaftliche Hierarchien und Ge- schlechterstereotype in digitalen Artefakten manifestieren und untersuchen, welche Auswirkungen das wiederum auf Nutzer*innen hat. Die Texte, die hier vorgestellt werden, sind in drei Gruppen eingeteilt. Jene der ersten Gruppe (3.1) fokussieren auf die Designpraxis bei der Software- und Hardwareentwicklung und auf die Wertesys- teme, in denen digitale Artefakte entstehen. Sie erläutern, in welchem Verhältnis Technologie und kulturelle Werte stehen. Die Texte der zweiten Gruppe (3.2) verdeutlichen, welche Relevanz diese zum Teil sehr abstrakten Theorien für die Analyse konkreter Beispiele haben. Die Autor*innen setzen sich hier mit einzelnen digitalen Artefakten auseinander und zeigen auf, wie sich Machtverhältnisse und Geschlechterstereotype konkret manifestieren. Die vorgestellten Beispiele reichen von nicht- gegenständlichen Artefakten wie Algorithmen und Datenstrukturen (3.2.1) über Netzwerktechnolo- 59
[Leonie Dorn] gien und virtuelle Räume (3.2.2) hin zu gegenständlichen Artefakten wie künstlich intelligenter As- sistenzsysteme und Robotern (3.2.3). Alle Beispiele in diesen Texten zeigen, inwiefern Technologien bestehende Werte und Herrschaftsverhältnisse in der Interaktion mit Nutzer*innen reproduzieren – oft mit diskriminierenden Auswirkungen. Dabei zeigt sich auch, dass kulturelle Normen und sozia- Datengrundlage, bei Netzwerktechnologien über die Teilnehmenden und bei Assistenzsystemen über die Konzeptionen des Humanen und Erwartungen an soziale Interaktionen. Die dritte Textgruppe (3.3) liefert Beispiele für Gestaltungsmethoden und Prozesse, die gender- sowie Empowerment fördern. Sie zeigen, wie die Ergebnisse der Geschlechterforschung in der prak- tischen Technikgestaltung angewendet werden können und wie eine Zusammenarbeit zwischen Informatiker*innen und Geschlechterforschenden dazu führen kann, Digitalisierung für alle zu gestalten. Bath, Corinna (2012) → Marsden, Nicola (2017) → Prietl, Bianca (2019a) → Die Geschlechter- und Ungleichheitsforschung, darunter auch die feminist Science and Technolo- gy Studies, betrachtet Informatik und Softwaregestaltung als soziokulturelle Praxis, bei der Vor- stellungen über Geschlecht, gesellschaftliche Normen und sozioökonomische Machtverhältnisse eine tragende Rolle spielen. Sie zeigt auf, dass technische Geräte kulturelle Artefakte sind, die das Nutzer*innenverhalten wesentlich mitprägen und jegliche Form der Digitalisierung nicht bloß um- setzen, sondern vielmehr aktiv gestalten. Die in diesem Abschnitt vorgestellten Texte können zur 60
Artefakte der Digitalisierung Einführung in die Grundannahmen, Thesen und Argumente der Geschlechterstudien über Techno- logie und Geschlecht gelesen werden. Sie liefern die Basis für eine genauere Analyse einzelner tech- nischer Artefakte, wie sie im zweiten Abschnitt dieses Kapitels beispielhaft vorgestellt wird. Die Autor*innen Bath, Marsden und Prietl illustrieren in ihren Veröffentlichungen, auf welche Art und Weise gesellschaftlich verbreitete Annahmen über Geschlecht und kulturelle Werte in Techno- logie eingeschrieben werden. Dies geschieht einerseits über die Annahmen darüber, von wem und wie das Produkt genutzt wird. Wie die Texte von Bath und Marsden erläutern, werden zum Beispiel bei idealtypischen Modellen von Nutzer*innen oft Geschlechterstereotype angewendet. Anderer- seits spielen bei der informatischen Grundlagenforschung, z. B. zu künstlicher Intelligenz, kulturell bedingte Vorannahmen über Technologie eine wesentliche Rolle. Der Text von Prietl wiederum illustriert, dass hinter dem Einsatz von Big-Data-Technologien der Glaube an eine technikbasierte, menschenferne Objektivität steht. Bath erläutert, dass bei der Entwicklung von Mensch-Maschine- Interaktionen gesellschaftlich verbreitete Konzeptionen von Maschinen als nicht-menschlich zum In den Texten von Bath, Marsden und Prietl treten drei wichtige Grundkonzepte der feminist Science and Technology Studies in den Vordergrund, die in den nächsten Abschnitten ausgeführt werden: Erstens haben wissenschaftliche Untersuchungen der Geschlechterforschung gezeigt, dass Ge- - ben keine objektiven Fakten, sondern sind vielmehr bloße Annahmen und Erwartungen, die an Indivi- - auch in Technologie zum Tragen kommen und von ihr reproduziert werden. Technik ist demnach nicht geschlechtsneutral und wirkt sich entsprechend auf das Nutzer*innenverhalten aus (3.1.1). Zweitens zeigen die in diesem Abschnitt versammelten Untersuchungen und Studien, wie Ge- schlechterstereotype, gesellschaftliche Normen sowie ökonomische und politische Machtverhält- werden. Bei einem näheren Blick auf Designmethoden und Herstellungsprozesse wird deutlich, dass Technikgestaltung nie frei von Kultur ist und deshalb immer als eine soziokulturelle Praxis verstanden werden muss, die gesellschaftliche Werte reproduziert (3.1.2). von sozialen Verhältnissen in technische Artefakte von einer Objektivität ausgegangen wird, die - pektiven produziert werden, fordern feministische Theoretiker*innen, die eigenen Blickrichtungen selbstkritisch anzuerkennen und sichtbar zu machen (3.1.3). 61
[Leonie Dorn] Feministische Analysen der Wechselwirkung von Technik und Geschlecht greifen auf die Theorien der Geschlechterperformanz (vgl. Butler 1995) und der „posthumanistische[n] Performativität“ (vgl. Barad 2003) zurück. In der ersten wird davon ausgegangen, dass Geschlecht durch Handlungen Wirkungs- bzw. Handlungsmacht zu. Mit Geschlechterperformanz ist gemeint, dass Geschlecht im Prozess sich wiederholender Hand- lungen entsteht und darin gesellschaftliche Vorstellungen wie z. B. bestimmte Männlichkeits- oder zwingend etwas mit den Realitäten von Männern oder Frauen zu tun. Sie sind eine gesellschaftliche Konstruktion, die aber von jeder*m, der*die diesen Idealen mit dem eigenen Verhalten nachkommt, aufrechterhalten und reproduziert wird (vgl. Butler 1995). Das bedeutet auch, dass Geschlecht keine feste, abgeschlossene Einheit ist, sondern sich stets verändert. Genau zwei Geschlechter, „Mann“ und „Frau“, gibt es nicht und diese sind auch nicht von Natur aus essentiell unterschiedlich (vgl. Bath 2012). Während Butler sich mit dem Konzept der Geschlechterperformanz auf die Sprache und das Ver- halten von Menschen bezieht, erweitert Barad diesen Ansatz auf Dinge und Objekte. Mit „Intra-Ak- tionen“ (Barad 1996: 185) beschreibt sie das prozessuale Entstehen zweier Einheiten, Mensch und Maschine, im Kontext ihrer Begegnung. Der Mensch wird erst zum Menschen, die Maschine erst zur Maschine durch die Mensch-Maschine-Interaktion. Barad schreibt in der Konsequenz auch Objek- ten Wirkmächtigkeit (agency) zu, d. h., dass Technologie und digitale Produkte gesellschaftliche Ideale und Geschlechterstereotype ebenso zitieren und reproduzieren wie Menschen. Demnach werden Geschlecht und Technik in einem ständigen Prozess geschaffen: Technologie wird „in einem komplexen Netzwerk von AkteurInnen“ (Bath 2012: 96) gestaltet und Nutzer*innen entstehen im Die feminist Science and Technology Studies gehen also davon aus, dass sowohl Technologie als auch Geschlecht gesellschaftlich konstruiert sind. Was darunter verstanden wird, verändert sich je nach Epoche und Kulturraum – und die Vorstellungen und Annahmen über Technik und Geschlecht Produkten, die auf gesellschaftlich zugeschriebenen Geschlechterrollen basieren und das Design - raten für Männer und für Frauen macht deutlich, was hiermit gemeint ist: Das Modell für Männer hat ein Display, über das technische Informationen angezeigt werden und verfügt darüber hinaus über Schrauben, mit denen der Apparat für Reparaturen geöffnet werden kann. Das Modell für Frau- 62
Artefakte der Digitalisierung en jedoch hat weder ein Display, noch kann es geöffnet werden. Durch die zwei unterschiedlichen Modelle wird angedeutet, dass es zwei Geschlechter gibt, die unterschiedlich mit diesem techni- schen Apparat umgehen und unterschiedliche Voraussetzungen mitbringen. Ebenso signalisiert das Produkt, dass „Männer“ sich für die technischen Informationen des Apparats interessierten und das Gerät eventuell reparieren wollten und könnten, „Frauen“ dagegen diese Möglichkeit nicht brauch- ten oder nicht nutzen könnten. Das gesellschaftliche Vorurteil von „technikfernen Frauen“ und - ten. Dieses Phänomen wird von Geschlechterforscher*innen auch Gendering bzw. Vergeschlechtli- Die Gestaltung sowie die techni- schen Möglichkeiten des Artefakts legen demnach eine bestimmte Nutzung gemäß der Genderskrip- (Bath 2012: 91) te nahe. Bath und Marsden weisen darauf hin, dass es sich hierbei um keinen Zwang handelt, betonen aber, dass Handlungsempfeh- lungen das Verhalten der Nutzer*innen vorstrukturieren. Am Rasierapparat zeigt sich deutlich, dass Nutzungsempfehlungen oft auf Geschlechterstereotypen basieren. Hier gibt es die Annahme, dass - tent und desinteressiert seien. Handlungsspielräume in der Interaktion mit den Artefakten werden dabei sanft eingeschränkt und Nutzer*innen werden angeleitet, stereotypen Verhaltensformen zu - Rasierapparat aufzubrechen, um ihn dann zu reparieren, sondern fügen sich den Einschränkungen, Ordnungen und Strukturen der Artefakte. Die Autor*innen beschreiben dieses Phänomen als „con- Wechselwirkung zwischen vergeschlechtlichter Technik und den Nutzer*innen. Was wir designen, designt uns zurück. Feministische Technikwissenschaftler*innen fordern deshalb, „Technikgestaltung mit aktuellen Geschlechtertheorien zusammen und in ihrer Prozesshaftigkeit zu denken. Damit sollen die Fallen eines neutralen Verständnisses von Technologie ebenso vermieden werden wie die der Essentiali- sierung von Geschlecht.“ (Bath 2012: 88) Bei diesen Betrachtungen von Technologie geht es aber nicht nur um Geschlecht: Als intersektiona- le Ungleichheitsforschung erkennen die Geschlechterstudien an, dass sich verschiedene strukturel- le Ungleichheiten – aufgrund von Klasse, Geschlecht, Ethnizität, körperlicher Beeinträchtigung oder Alter – überkreuzen, gegenseitig verstärken oder aushebeln (vgl. Prietl 2019a: 4). Sie erforschen des- halb multiple Diskrimnierungsformen bei ihren Untersuchungen darüber, „wie sich Politik, Sozia- (Bath 2012: 99). 63
[Leonie Dorn] Wie manifestieren sich gesellschaftliche Hierarchien und Geschlechterstereotype in digitalen Ar- tefakten genau? Wie wird Technologie vergeschlechtlicht? Wie kommen diese Genderskripte in die digitalen Produkte? Marsden macht in ihrem Text über Designmethoden der Technikgestaltung deutlich, dass Menschen bei der Herstellung von digitalen Artefakten immer mitgedacht werden, denn Artefakte werden im- mer für jemanden und für ganz bestimmte Nutzungskontexte entwickelt (vgl. Marsden 2017: 45). Gestalter*innen von digitalen Produkten treffen also stets bestimmte Annahmen über die Bedürf- nisse, Kompetenzen und Erwartungen der Nutzer*innen sowie die Art der Nutzung des Produkts. Nutzer*innen werden im Gestaltungsprozess immer in irgendeiner Form imaginiert – z. B. über Per- sonas, eine*n idealtypische*n Nutzer*in mit Bild und Charakterbeschreibung. Dabei fokussieren die Gestalter*innen meistens auf eine bestimmte Gruppe von Nutzer*innen, was stets zu Ausschlüssen führt. Das kann bei der Herstellung nicht umgangen werden, da jedes Produkt eine Zielgruppe hat. Doch nach welchen Kriterien die Zielgruppe ausgewählt Eine Untersuchung von Call- wird und wer hierbei berücksichtigt wird und wer nicht, Center-Software hat z. B. gezeigt, dass wesent- liche Arbeitsanforderungen für Servicearbeit hat mit soziokulturellen Werten zu tun. Das führt letztlich wie Flexibilität und Freundlichkeit nicht in der dazu, dass beim Design von technischen Artefakten be- Programmierung der Software beachtet wur- den, weil sie von den dort arbeitenden Frauen stimmte Nutzungsarten aufgrund unterschiedlicher, un- als natürlich und selbstverständlich angesehen sind. andere Nutzungsarten technisch unmöglich gemacht Maass, Susanne; Rommes, Els (2007) werden. (vgl. Marsden 2017) „ → Isabel Zorn, Susanne Maass et al. (Hg.): Das Gendering informatischer Artefakte durch Vorannah- - men über Nutzer*innen geschieht meist automatisch und Wiesbaden: Springer, S. 97–108. unbewusst. „Um problematische Vergeschlechtlichun- gen in technische Artefakte zu implementieren, reicht es also schon, wenn bei der Entwicklung nicht aktiv gegengesteuert wird [...]“ (Marsden 2017: 47). Das gilt sowohl für die Auswahl der Zielgruppe als auch für die Bestimmung der Nutzungskontexte. Gendering geschieht dabei entweder explizit, z. B. bei der Absicht, ein Produkt „nur für Frauen“ zu schaffen (wie es am Beispiel des Rasierers zu sehen war) oder „Frauen“ bei der Entwicklung beson- ders zu berücksichtigen. Oder aber es geschieht implizit, indem ein Produkt „für alle“ geschaffen wird (z. B. ein digitales Navigationssystem für eine Stadt), dessen Design sich jedoch an Normen und Standards orientiert, die den Entwickler*innen gerecht werden. Diese sogenannte „I-Methodology“ - Artefakte für sie nicht richtig funktionieren (siehe Abschnitt De-Gendering von Artefakten Wie kann die Zuschreibung von Geschlecht in digitalen Artefakten sicht- bar gemacht werden? Download verfügbar → 64
Artefakte der Digitalisierung Marsden erläutert in ihrem Text, dass Ausschlüsse bereits bei der Festlegung der Zielgruppe ei- nes Produkts produziert werden. Diese Ausschlüsse entsprechen oftmals schon existierenden gesellschaftlichen Diskriminierungsformen. Neben der Weltanschauung und den Idealen der Entwickler*innen, die bloß einen kleinen Ausschnitt der sozialen Wirklichkeit repräsentieren und oftmals auf Stereotypen basieren, spielen aber noch andere Faktoren eine Rolle. Besonders in der kommerziellen Softwareproduktion sind ökonomische Kriterien bestimmend: Wie viel Zeit steht für - fen? Die Auswahl der Zielgruppe anhand ihrer Zahlungskraft spiegelt bestehende Ungleichheiten aufgrund von Geschlecht, Bildungsressourcen, Ethnizität usw. wider und reproduziert sie. Die nötigen Investitionen in die Gestaltung einer guten Bedienbarkeit werden im Rahmen kommer- zieller Produktherstellung nachvollziehbarerweise eher dann getätigt, wenn die Zielgruppe wirt- Aufwand investiert wird, für wen überhaupt technische Artefakte entwickelt werden und wer bei der Gestaltung der Mensch-Technik-Interaktion in den Blick genommen wird. (Marsden 2017: 46) dass digitale Artefakte männlich vergeschlechtlicht sind. Designer*innen und Programmierer*innen orientieren sich nämlich meistens an dem Stereotyp des weißen, der Mittelschicht angehörigen cis- gehört ebenfalls ein hohes Bildungsniveau, hohe Zahlungsfähigkeit sowie Kompetenz und Selbst- bewusstsein in der Interaktion mit digitalen Geräten. All dies sind Charakteristika, die in der Ge- es sich hierbei um ein Konstrukt handelt. Es ist nichts weiter als ein gesellschaftliches Ideal, das durch die Einschreibung in digitale Artefakte zitiert und reproduziert wird. Das bedeutet, dass es mit der Realität von Männern – auch mit jener der Softwareentwickler in Silicon Valley – nicht sonder- lich viel zu tun haben muss (vgl. Bath 2012: 95). Die männliche Vergeschlechtlichung von Artefakten lässt sich eher auf die dort vorherrschende (Fach-)Kultur zurückführen, die solche Charakteristika männlich konnotiert und zugleich idealisiert. Wie MINT-Fachkulturen Ausschlüsse und Identitäten reproduzieren, wird im ersten Kapitel näher erläutert. Gesellschaftlich bedingte Vorannahmen, die nicht weiter hinterfragt werden, zeigen sich aber nicht erst in einem so späten Stadium der Technikproduktion. Bath und Prietl weisen darauf hin, dass schon viel früher, nämlich bei der informatischen Grundlagenforschung, Gendering eine wesent- liche Rolle spielt. Bereits auf unser allgemeines Verständnis von Technologie und Wissenschaft Intelligenz ist es dabei wesentlich, das Verhältnis und vor allem die Differenzen von Mensch und Corinna Bath zeigt in ihrem Text sehr deutlich, wie schon bei der Grundlagenforschung zu Künstli- cher Intelligenz bestimmte vergeschlechtlichte Vorstellungen von Intelligenz, Emotionen und sozi- aler Interaktion materialisiert werden. Basierend auf der Arbeit von Lucy Suchman (2007) erläutert 65
[Leonie Dorn] Bath, dass bei der Herstellung von technischen Artefakten, die menschliche Charakterstika nachah- men sollen, sichtbar wird, was soziokulturell als menschlich bzw. nichtmenschlich verstanden wird. Waren lange Zeit Eigenschaften, die als charakteristisch menschlich angesehen werden, männlich Textgruppe zu Assistenzsystemen (Abschnitt 3.2.3). Bianca Prietl untersucht in ihrem Beitrag die Anwendung von Big-Data-Technologien. Sie zeigt, wie diese für die Generierung von neuem Wissen eingesetzt und dabei als neutral und objektiv betrach- tet werden (vgl. Prietl 2019a: 2). Big-Data-Technologien – algorithmische Systeme zur Verarbeitung riesiger Datenmengen über soziale Phänomene – werden als Vermessungs- und Analysetechnolo- gien eingesetzt und sind damit Instrumente der Wissensproduktion. Ihre Anwendung ist aber nicht neutral und objektiv, sondern basiert auf einer bestimmten Weltanschauung und einem kulturell bedingten Wissenschaftsverständnis. Dabei wird davon ausgegangen, dass die ganze Welt in Da- ten erfasst werden könne und dass „wahre Objektivität“ durch „rein mechanisch“ erzeugtes Wissen ohne Beteiligung des Menschen erreicht werden könne. Prietl beschreibt diese Weltanschauung in Anlehnung an Kate Crawford (2013) als Datenfundamentalismus. (vgl. Prietl 2019a: 5) Auch hier haben die feminist Science and Technology Studies gezeigt, dass solche Annahmen auf einem westlichen Ideal von Rationalität und Objektivität aufbauen. Dieses Ideal wird von dem wei- ßen hingegen wurden stets mit Frauen und Personen of Color assoziiert und damit ihr Ausschluss aus den Wissenschaften begründet. Darin zeigt sich, dass bereits die Werkzeuge, mit denen wir Wissen produzieren, kulturelle und vergeschlechtlichte Artefakte sind. (vgl. Prietl 2019a: 5) Die Entwicklung von digitalen Technologien für alle Bereiche des privaten und öffentlichen Lebens wird damit begründet, dass sämtliche Probleme – und damit auch soziokulturell bedingte – mittels Technologien gelöst werden könnten, so Prietl. Dieser sogenannte Technik-Solutionismus basiert auf der Annahme, dass soziale Probleme auf einer Reihe von kleineren Fehlern beruhten und nach- einander mit technischen Mitteln behoben werden könnten. „The utopias, being portrayed around FSTS verstehen die Wissenschaften und die Wissensproduktion grundsätzlich als eine soziale Praxis mit hoher politischer Relevanz, in der immer auch Machtverhältnisse eine Rolle spielen – sowohl in Institutionen als auch bei technischen Instrumenten, mit denen Wissen produziert wird. Diesen Aspekt hebt die Kritik an westlichen Rationalitäts- und Objektivitätsvorstellungen besonders her- vor. Prietl bezieht sich hier auf das von Donna Haraway entwickelte Konzept des „situierten Wissens“ (vgl. Haraway 2017), welches aufzeigt, dass sämtliches Wissen und jede Wahrheit stets aus einer Per- 66
Artefakte der Digitalisierung Donna Haraway gilt als spektive und Weltanschauung heraus geschaffen wird – der fSTS und feministischer Wissenschaftskri- und es so etwas wie universelle, menschenunabhängige tik. Ihr „Manifesto for Cyborgs“ thematisiert bereits im Jahr 1985 grundlegende Fragen zu (mechanische) Objektivität nicht geben kann. Stattdes- Technologie und Politik. sen ist Objektivität für Haraway das Sichtbarmachen und Einbeziehen des eigenen Standpunktes, der einge- „ schränkten Sichtweise sowie das Bewusstmachen von Machtstrukturen in Prozessen der Wissenschaft und bei → Karin Bruns, Ramón Reichert (Hg.): Reader Neue Medien. Texte zur digitalen Kultur und der Herstellung von technischen Artefakten (vgl. Prietl Kommunikation. Bielefeld: transcript, S. 238–277. 2019a: 3 ff.). Wissensskala Anknüpfend an die feministische Grundkritik des „situier- Handelt es sich bei unserem Wissen über Ge- ten Wissens“ zeigt Prietl anhand des Beispiels von Big-Da- schlecht um allgemeingültige Fakten oder um ta-Technologien, dass es „rohe Daten“ nicht geben kann, unsere persönliche Perspektive? Download verfügbar → sondern diese immer nach bestimmten Kriterien sortiert und kategorisiert werden. Datenstrukturen entstehen nicht unabhängig von gesellschaftlichen Hie- rarchien. Genauso wenig lässt sich die Welt in ihrer Komplexität und Widersprüchlichkeit in Zahlen fassen. Prietl argumentiert, dass Formen der statistischen Erfassung der Welt Aspekte des Lebens bevorzugen, die sich auch wirklich in Zahlen fassen lassen, aber blind sind gegenüber Aspekten - Abschnitt über algorithmische Entscheidungssysteme wird darauf genauer eingegangen (siehe Ab- Entsprechend kritisch blicken die feminist Science and Technology Studies, unter ihnen auch Prietl, auf Ansätze des Techno-Solutionismus – den Glauben, dass gesellschaftliche Probleme mit tech- nologischer Innovation gelöst werden könnten. Prietl kritisiert diese Weltanschauung als anti-poli- tisch, da technologischer Fortschritt und keine politischen Mittel, das heißt eine Umverteilung von Macht und gesellschaftlichen Ressourcen, als Basis für Wohlstand, Demokratie und Emanzipation gesehen wird. Dies spiegelt eine privilegierte Perspektive auf die Welt wider, die Erfahrungen von struktureller Diskriminierung konsequent ausblendet. (vgl. Prietl 2019a: 7 ff.) Digitale Produkte – ob Datenstrukturen, Software oder Hardware –, so argumentieren die Autor*innen in der Tradition der Geschlechterforschung, müssen grundsätzlich als Verkörperungen von Kultur, Weltansichten, Geschlechterrollen und Machtverhältnissen, also als Artefakte verstanden werden. Anstatt sie als neutrale Entitäten zu betrachten, müssen sie – ebenso wie ihr menschliches Gegen- über – als Akteure in ihren soziokulturellen Netzwerken gedacht werden. Gleiches gilt für ihre Her- stellungsprozesse, bei denen Informatiker*innen immer in gesellschaftlichen Hierarchien und „struk- erfolgt nicht nur auf Seiten der Technologiegestaltung, sondern innerhalb eines umfassenderen so- ziotechnischen Netzwerkes [...]“ (Bath 2012: 92). 67
[Leonie Dorn] Die in 3.1 vorgestellten Texte haben die Grundlagen des Verhältnisses von Technologie und sozio- kulturellen Wertevorstellungen thematisiert. Die kommenden Texte erläutern diese Prozesse der Vergeschlechtlichung von Technologie anhand von Beispielen. Die erste Textgruppe behandelt datenbasierte Computerprogramme wie beispielsweise Algorithmen. Die Texte der zweiten Grup- pe untersuchen die Gestaltungs- und Interaktionsprozesse von Netzwerktechnologien. Die dritte Textgruppe untersucht die Konzeptionen des Humanen hinter künstlich intelligenten Assistenz- systemen. → Prietl, Bianca (2019b) → Schinzel, Britta (2017) → Shephard, Nicole (2017) → Algorithmic biases, sogenannte algorithmische Vorurteile, werden aktuell vor allem im Kontext von Künstlicher Intelligenz diskutiert. Medien berichten über rassistische oder sexistische Suchergeb- nisse und von Programmen, die für Menschen mit dunkler Hautfarbe nicht funktionieren und es kommt vor, dass Frauen bei automatisierten Bewerbungsprozessen nicht berücksichtigt werden. Da automatisierte Entscheidungssysteme für immer mehr Bereiche des öffentlichen Lebens (Sicher- heit), für den Arbeitsmarkt (Einstellungsverfahren) und für individuelle Lebenschancen (Kreditwür- digkeit, Strafvollzug) relevant werden, wird den Technologien steigende Verantwortung zugeschrie- ben. Deshalb werden ihre diskriminierenden Auswirkungen mittlerweile genauer untersucht. (vgl. vorgestellten Texte thematisieren das Phänomen der Diskriminierung durch „algorithmische Ent- scheidungssysteme“ (Prietl 2019b: 303). Sie geben einen Überblick über die Funktionsweisen und 68
Artefakte der Digitalisierung Logiken der Software und versuchen „die Orte aufzuzeigen, wo und wie mittels Computer-Software Wertsetzungen, Priorisierungen, Ausschlüsse und Diskriminierungen für Menschen und soziale Systeme in die Welt gesetzt werden (können)“ (Schinzel 2017: 5). Die Beiträge problematisieren die vermeintliche Neutralität, mit denen der Einsatz von datenge- stützten, automatisierten Entscheidungssystemen in vielen Kontexten gerechtfertigt wird und die Technologien zeigt, dass hinter Algorithmen und Datenstrukturen menschliche Entscheidun- gen stehen. Die Autor*innen legen dar, wie Big Data als formalisierter Spiegel der Welt zwangsläu- Fakten verarbeiten. Eine Vorhersage der Zukunft auf Basis bestehender Ungleichheiten führt dazu, dass Diskriminierungsmuster reproduziert werden. Wie sich zeigen wird, hat das für marginalisierte Gruppen weitreichende Auswirkungen. Feministische Technikwissenschaftler*innen formulieren deshalb eine grundlegende Kritik am Einsatz von algorithmischen Entscheidungssystemen und kri- politische Probleme zu lösen. Worin liegen die Ursachen dafür, dass automatisierte Entscheidungssysteme oftmals diskriminie- rende Auswirkungen haben? Britta Schinzel macht in ihrem Text deutlich, dass zwischen verschie- In medialen Debatten werden die Begriffe Künstliche Intelligenz, Big Data, Algorithmen und machi- ne learning algorithmic bias missverständlich ist (vgl. Schinzel 2017: 5): Algorithmen sind Befehle und Rechenvorschriften für die Verarbeitung eines Inputs zu einem Output. Sie sind daher ein reines Rechenverfahren und laut Schinzel der falsche Ort, um nach Diskriminierung oder moralischem Fehlverhalten zu suchen (vgl. Schinzel 2017: 5). Sie sind stets eingebettet in eine festgelegte Datenstruktur sowie einen bestimm- ten Anwendungskontext und werden von einer ausgewählten Menge an Daten gefüttert. Algorith- mische Entscheidungssysteme sind also das Ergebnis einer Verschmelzung von Daten, Ordnungs- strukturen, einer Regelbasis (Algorithmus) und stehen immer in einem Anwendungskontext. „Doch Schaden, Diskriminierungen und Katastrophen entstehen durch die Rahmung der Algorithmen in 2017: 5). Aber mit welchen Daten wird die Software gefüttert? Nach welchen Regeln werden die Da- ten kategorisiert und nach welcher Ordnung verfährt der Algorithmus bei der Auswertung? In wel- chen Kontexten wird die Software eingesetzt und zu welchem Zweck? Hinter den Antworten liegen Entscheidungen von Informatiker*innen und Data Scientists mit einer individuellen, wahrscheinlich weitere, wichtige Entscheidungen. Sie eröffnen Handlungsmöglichkeiten, die ohne sie nicht oder Welt wesentlich. Sie gelten deshalb für Prietl und Schinzel in erster Linie als Werkzeuge der Wissens- 69
[Leonie Dorn] Bei der Entwicklung von Regelsätzen und der Auswahl von Datenmengen handelt es sich immer um eine Formalisierung unserer Lebenswelt. Diese Formalisierung führt dazu, dass von sozialen Phänomenen und gesellschaftlichen Problemen abstrahiert wird. Schinzel spricht hier von „informationstechnische[r] Modellierung“ (Schinzel 2017: 5): Bevor die Soft- ware programmiert werden kann, müssen Phäno- mene dekontextualisiert und vereinfacht werden. Dahinter steht die Grundannahme, dass die Welt und Gesellschaft sich in all ihrer Komplexität in (Schinzel 2017: 6) Daten und Formeln erfassen lässt. Dieser „Daten- fundamentalismus“ (Prietl 2019b: 311) wird von der feministischen Wissenschaftskritik als realitätsfern kritisiert. Welche gesellschaftlichen Verhältnis- se und sozialen Phänomene bei der Abstraktion in Daten ignoriert werden, entscheiden Menschen soziokulturellen Prägung. Das heißt auch, dass Big-Data-Technologien Inhalte und Informationen begünstigen, die einerseits der bestehenden kulturellen Norm entsprechen und andererseits kodi- werden bzw. können nicht systematisch erfasst werden. Diese „Machtvergessenheit“, so kritisieren feministische Wissenschaftstheoretiker*innen, führt automatisch zu einer Reproduktion bestehen- der Hierarchien und Herrschaftsverhältnisse (vgl. Prietl 2019b: 311 ff.). Wie sich Machtverhältnisse in Datenmengen und -strukturen genau bemerkbar machen, wird in den Texten von Nicole Shephard, Joy Buolamwini und Timnit Gebru erläutert. Sie bedienen sich dafür an Beispielen der Überwachung und der algorithmischen Gesichtserkennung. Buolamwini und Gebru zeigen in ihrer Studie zu den meist genutzten Gesichtserkennungsprogram- men, dass diese für die Erkennung von Gesichtern weißer cis-Männer sehr gut funktionieren, für die Erkennung von Frauen mit dunkler Hautfarbe jedoch nahezu unbrauchbar sind. Daran zeigt sich sehr deutlich, dass Datensätze nichts weiter als unvollständige Stichproben sind. In digitalen Über- wachungstechnologien wird deutlich, dass solche Programme den weißen, cis-männlichen Körper ohne Beeinträchtigung als Norm ansehen. Trans*- und queere Körper sowie Menschen mit dunkler - Das ist vielleicht jedoch gar nicht so überraschend: Ein Blick auf die Entstehungskontexte algorith- mischer Technologien zeigt, dass es sich bei der Mehrheit der Softwareentwickler*innen und Data Scientists immer noch um weiße, heterosexuelle, gut ausgebildete Männer ohne Behinderung und mit überdurchschnittlich hohem Einkommen handelt, die wenig bis keine Diskriminierungserfah- 70
Artefakte der Digitalisierung rungen gemacht haben. Auch in der Ausbildung zur Data Science werden ethische Aspekte oder nur selten gefordert (vgl. Prietl 2019b: 315). Hinzu kommt, dass ein Großteil der Datensätze und In- oder bei Geheimdiensten und dem Militär. Dies situiert die Logiken digitaler Artefakte in kapitalis- tischen und militaristischen Weltbildern und füttert sie mit entsprechenden Annahmen über die Welt. Kompetenzen und Gestaltungsmacht über digitale Veränderungsprozesse liegen gesellschaft- - phard 2017) Shephard nennt dies die „Daten-Klassengesellschaft“ (Shephard 2017: 113). Shephard zeigt darüber hinaus in ihrem Text, auf welche Weise staatliche Bürokratie und Bevöl- kerungskontrolle auf einer kolonialen Vergangenheit basieren. Sie erläutert, wie die biometrische Vermessung von Gesichtern und Körpern als ein Erbe des transatlantischen Sklavenhandels an- gesehen werden kann und zeigt, wie die heutigen datengesteuerten Überwachungstechnologien immer noch nach rassistischen, kolonialen und orientalistischen Logiken funktionieren. (vgl. She- phard 2017: 109) Wie brauchbar sind nun eigentlich solche Technologien und wofür können sie eingesetzt werden? Welche politischen Implikationen haben die Informationen, die generiert werden? Alle Autor*innen machen darauf aufmerksam, dass sich datenbasierte Analysen und Entscheidungssysteme zwangs- - fassen, die dabei festgestellten Hierarchien und Machtverhältnisse werden jedoch ohne Wertung als gegeben angenommen, um Voraussagen über die Zukunft zu machen. Bestehende strukturelle Diskriminierungen und Ungleichheiten werden damit als „Wahrheit verkannt“ (Prietl 2019b: 314), fortgeschrieben und konserviert. Eine Software, die Arbeitsmarktchancen basierend auf bestehen- den (Miss-)Erfolgen errechnet oder eine Kriminalitätsvoraussage, die auf der Anzahl bisheriger Poli- daran, dass Regelsätze und Datenstrukturen soziale Phänomene bestenfalls dokumentieren, aber und Migrant*innen haben schlechte Arbeitsmarktchancen“), aber keine Kausalitäten („Der Arbeits- markt diskriminiert Menschen anderer Herkunft und solche, die mehr Sorgearbeit leisten“). Die Ergebnisse dieser soziokulturellen Rechenmaschinen dienen als Grundlage für immer mehr Ent- - - - systeme bestimmen, wo und von wem aus Gefahr droht. Die Liste ist lang. Fest steht, dass mit Hilfe von selbstlernenden algorithmischen Systemen politisch und sozial relevante Erkenntnisse und Handlungsoptionen geschaffen werden. Sie regeln in zunehmendem Maße unseren Zugang zu Wis- 71
[Leonie Dorn] Wie das Ergebnis berechnet wurde oder welche alternativen Möglichkeiten es zu diesem Output gäbe, wenn die Programmierung anders verlaufen wäre, bleibt aufgrund der Komplexität der Syste- me selten nachvollziehbar. Die Rechensystematik bleibt intransparent – eine Black Box. Da ihre Er- gebnisse nicht überprüft werden können, sind Ent- scheidungstragende den Systemen quasi ausgelie- (Prietl 2019b: 307) fert. (vgl. Schinzel 2017) Die sozialen und kulturellen Auswirkungen von Big-Data-Technologien verfestigen bisherige Un- gleichheiten. Bereits marginalisierte Gruppen werden noch systematischer ausgeschlossen als zu- vor. Alle Autor*innen beschreiben eine Fortführung bestehender Diskriminierungsformen im Digi- talen: Personen, deren Lebenslauf, Familienmodell oder Erwerbstätigkeit außerhalb der Norm des weißen, westeuropäischen Mannes der Mittelschicht liegt, bekommen Schwierigkeiten beim Zu- gang zu Sozialleistungen und haben schlechtere Chancen auf dem Arbeits- oder Wohnungsmarkt. - trolle“ (Shephard 2017: 109) bestimmt weiterhin, wer verdächtig aussieht und wer ungeahnt passie- ren darf. Menschen, die nicht in die Norm passen, wird der Zugang verweigert oder werden noch stärkerer Überwachung unterzogen. Forscher*innen der feminist Surveillance Studies diskutieren daher Privatsphäre als eine Frage von sozialer Gerechtigkeit. Shephard erläutert in ihrem Text, dass die Auswirkungen von Überwachung nicht für alle gleich sind: Die Privilegiertesten unter uns spüren sie gar nicht, während sie anderen zum Verhängnis wird. (vgl. Shephard 2017: 110 ff.) Diese diskriminierenden Auswirkungen von Big-Data-Technologien beschäftigen schon lange nicht mehr nur Betroffene oder Diskriminierungsforschende. Die Debatte um algorithmic bias hat es aus der Nische der feministischen Technikwissenschaft in den Mainstream des Silicon Valley geschafft. Mittlerweile wurden zahllose Initiativen zu algorithmischer Ethik und verantwortungsvoller KI ge- gründet und werden von staatlicher und unternehmerischer Seite gefördert. Die dort diskutierten der Entwickler*innenteams auseinander. Sie thematisieren kaum die grundlegenden gesellschaftli- chen Ungleichheitsstrukturen, die durch ihre Produkte digitalisiert und somit reproduziert werden. Buolamwini und Gebru haben in ihrer Studie gezeigt, dass Gesichtserkennungssoftware mit einem Datenset aus diverseren Gesichtern besser funktioniert und somit auf technischer Ebene durchaus Verbesserungen möglich sind (vgl. Buolamwini und Gebru 2018). Jedoch bleibt es diskussionswür- dig, ob Überwachungssysteme überhaupt verbessert und marginalisierte Gruppen oder Körper jenseits der Norm in Kontrolltechnologien integriert werden sollten – könnte dies doch dazu füh- ren, dass benachteiligte Gruppen noch mehr der Gefahr ausgesetzt werden, diskriminiert zu wer- den. Eine ähnliche Frage stellt sich bei der digitalen Vermessung von Frauenkörpern (u. a. durch Menstruations- oder Zyklus-Apps). Solche Programme können zur Verbesserung der Frauenmedizin beitragen. Eine dringende Notwendigkeit, da Frauenkörper in der medizinischen Forschung lange 72
Artefakte der Digitalisierung Zeit weitgehend unsichtbar geblieben sind. Es bleibt jedoch offen, wofür die Daten noch eingesetzt werden. Ein Verkauf der Daten an Krankenversicherungen könnte z. B. eine diskriminierende Be- rechnung von Prämien bedeuten. Darüber hinaus stellt sich die Frage, welche „Frauenkörper“ hier eigentlich vermessen werden. Werden Körper jenseits der cis-Weiblichkeit, die nicht menstruieren oder gebären können, ausgeschlossen? Nicole Shephard mahnt daher auch in diesem Kontext zur Diskussion darüber, welche sozialen und kulturellen Auswirkungen haben kann (vgl. Shephard 2017: 111). Die feministische Wissenschaftskritik argumentiert gegen technische Lösungen von inhärent sozia- len Problemen. Prietl erläutert in ihrem Text, dass gesellschaftliche Macht- und Herrschaftsverhält- nisse nicht aus Versehen entlang der Grenzen von Klasse, Geschlecht, Ethnizität und Körperlichkei- ten von Big-Data-Technologien verstärkt werden. Sie sind kein Fehler im System, sondern bloß ein weiteres „Phänomen sozialer Ungleichheit“ (Prietl 2019b: 304). It’s not a bug, it’s a feature. Nicht die Algorithmen müssen verändert werden, sondern die Gesellschaft, in der sie zur Anwendung kommen und deren Daten erfasst werden. Eine „Fehlerbehebung“ auf technischer Ebene reicht nicht aus: (Prietl 2019b: 316) Ein abschließendes „Beheben“ von algorithmic biases scheint also nur möglich, wenn wir zuerst Big-Data-Analysen der Diskriminierungsforschung nicht helfen können, strukturelle Ungleichheiten sichtbar zu machen. Ihr Einsatz in Systemen, die Entscheidungsgrundlagen liefern, muss jedoch in- tensiv diskutiert und hinterfragt werden, da er fast immer zu Ausschlüssen und Benachteiligungen führt. Stereotype Schreiben Sie eine Ankündigung für ein informatisches Bildungsangebot, ohne Download verfügbar → 73
[Leonie Dorn] Drüeke, Ricarda (2019) → → → Nakamura, Lisa (2014) → Paulitz, Tanja (2007) → Die Texte dieses Abschnitts thematisieren Netzwerke als soziokulturelle Artefakte und nehmen das Phänomen der zwischenmenschlichen Kommunikation und Interaktion durch digitale Medien ge- nauer in den Blick. Untersucht werden dabei das Verhalten von Nutzer*innen im Internet, spezi- ell auf interaktiven Plattformen (social web) sowie die Inhalte, die dort entstehen. Es bleibt hier wichtig, darauf hinzuweisen, dass es „das Internet“ nicht gibt, sondern viele unterschiedliche In- ternetanwendungen und -technologien, die netzwerkartig nach unterschiedlichen Logiken und un- terschiedlichen Zielsetzungen aufgebaut sind. Das Einzige, was E-Mail, WhatsApp, Online-Gaming oder die Plattform „Ebay-Kleinanzeigen“ gemeinsam haben, ist, dass über und durch sie Menschen bzw. Akteure miteinander kommunizieren können. Wie sie das tun und welche Auswirkungen das auf ihr Verständnis von Subjektivität, Handlungsmöglichkeiten oder soziale Beziehungen hat, un- terscheidet sich von Netzwerk zu Netzwerk. Diese Wechselwirkungen mit besonderem Fokus auf Geschlechterrollen untersucht die feministische Internetforschung. Zentral in diesen Beiträgen ist, dass Netzwerktechnologien ungewöhnlich stark von ihren Nutzer*innen als teilnehmende Akteur*innen und Co-Produzent*innen mitgestaltet werden. Ge- 74
Artefakte der Digitalisierung der Netzwerk-Communities liefern daher Erklärungen für die Diskriminierung und (Un-)Sichtbar- öfter über digitale Netze statt und persönliche Beziehungen werden über und durch sie gelebt. Angesichts dieser Tatsache wird in den Beiträgen thematisiert, wie Vertrauen, Intimität und Sicher- heitskonzepte neu gedacht werden müssen. Bei der Herstellung der meisten digitalen Artefakte werden die zukünftigen Nutzer*innen von den Entwickler*innen imaginiert oder nur einmalig involviert, bevor die Produkte auf den Markt kom- men. Bei Netzwerktechnologien haben die Nutzer*innen hingegen einen dauerhaften und direkten - deren digitalen Artefakten von dem Verhalten der Nutzer*innen abhängig. Paulitz erläutert in ihrem Beitrag, wie Teilnehmende das Netzwerk durch „co-constructive practices of networking“ (Paulitz 2007: 128) in einem sich permanent fortsetzenden Verfahren produzieren und verändern. Gemeint sind damit Akte des Kommunizierens und Artikulierens wie z. B. Verlinken, Teilen und Antworten. Hierbei handelt es sich um einen ständigen Entstehungsprozess des Artefakts – „perpetual produc- - den, immer weiter. Aber nicht nur das – auch die Nutzer*innen und deren Verständnis von sozialem further development of the technical platform, but also to the production of the social structure of relationships.“ (Paulitz 2007: 128) Die technische Weiterentwicklung eines Netzwerkes ist abhängig von den Reaktionen und Anwen- dungen der Nutzer*innen. Sie sind „lebendige Artefakte“, die auf die dauerhafte, aktive Beteiligung der Nutzer*innen angewiesen sind. Entwickler*innen geben sich große Mühe, Funktionen zu schaf- fen, die Nutzer*innen involviert halten und zum Handeln motivieren. Im Design dieser Technologien wird deshalb auf soziale Aspekte genauso geachtet wie auf Funktionalität. (vgl. Paulitz 2007: 128) Die Bedürfnisse von Nutzer*innen, ihr Verständnis von Teilhabe, Handlungsfähigkeit (agency) und sozialer Interaktion formen das Netzwerk wesentlich. Die Ausgestaltung einer Netzwerktechnolo- gie hängt fundamental vom Selbstverständnis der Nutzer*innen ab: „[...] the design of Internet tech- nologies necessarily includes social constructions of the understanding of the users and of their subjectivity.“ (Paulitz 2007: 121) Das Selbstverständnis und Verhalten von Nutzer*innen ist immer mit gesamtgesellschaftlichen Verhältnissen und Transformationsprozessen verwoben. Der Wandel hin zur Informations- und Netzwerkgesellschaft wirkt sich deshalb auch auf die Subjektivitätskons- truktionen von Individuen aus und schafft ein Verständnis von vernetztem Selbst (vgl. Paulitz 2007: - namiken in Online-Netzwerken, wie einige der angeführten Texte exemplarisch darstellen: „Das In- ternet ist nicht geschlechtsneutral [...]“ (Drüecke 2019: 1378). Gesellschaftliche Verhältnisse dringen also nicht „nur“ beim Designprozess, sondern auch über Nutzer*innen in die Netzwerke ein. Sie zeigen sich in der technischen Struktur (und ihrer Weiter- entwicklung), in den Inhalten und Texten, die das Netzwerk produziert und in den sozialen Gefügen des Netzwerkes. Das hat auch Auswirkungen auf das Verständnis von sozialen Beziehungen und 75
[Leonie Dorn] Öffentlichkeit. Netzwerke und vor allem das Internet spiegeln deshalb in besonderer Breite gesell- schaftliche Zustände bzw. Missstände wider und dienen auch als Katalysator für Veränderungen. - cial transformation processes crystallize, making them accessible for social science research as if under a magnifying glass.“ (Paulitz 2007: 121) Netzwerktechnologien lassen sich also als crowd-driven verstehen. Das hat zur Folge, dass Vorurteile in der crowd - sen. Während die Zusammensetzung von Online-Communities in manchen Netzwerken sehr divers - Die Ursachen hierfür sind in strukturellen Ungleichheiten zu verorten. Nicht alle haben die gleichen technischen Kompetenzen, Zugang zum Internet bzw. zu Endgeräten, dieselben Zeitressourcen oder einen ähnlichen Bildungsstand. So argumentieren Keitel und Diegmann, dass ein Mangel an Frauen in der Wikipedia-Community u. a. auf technische Hürden zurückzuführen ist. Hinzu kommt oftmals ein geringeres Vertrauen in die eigenen Fähigkeiten und ein grundlegender Zeitmangel durch Care- Arbeit. Das bewirkt wiederum eine Dominanz von Männern beim Entwickeln von Regeln für die Com- munity und demotiviert Frauen zusätzlich. (vgl. Keitel und Diegmann 2016: 96 f.) Es liegt jedoch nicht nur an Mehrheitsverhältnissen. So berichtet Nakamura, dass sich die Online- - line-Videospiele spielen. Diesen Neuzugängen wird jedoch mit viel Widerstand begegnet und sexis- tisches Verhalten liegt in der Gaming-Community an der Tagesordnung. Die Frauen und Queers, die - kamura 2014: 82) Genauso ist der Anteil von nicht weißen Männern in der Gaming-Szene relativ hoch und dennoch schlägt die Kultur des trash talks bei Wettbewerben oft in rassistische Beleidigungen um (vgl. Nakamura 2014: 86). Die Kultur des Ausschlusses artikuliert sich in den Netzwerken durch Hasskommentare und digitale Gewalt. Sexistische, rassistische und homophobe Beleidigungen und Morddrohungen gegen Frauen, - - mationen wie dem Wohnort oder von Fotos (Doxxing), öffentliches Bloßstellen (public shaming) oder die Verbreitung von Falschinformationen. Was in den Texten dabei jedoch nicht thematisiert wird, ist, dass die Netzwerkstruktur von Social- Media-Plattformen darauf ausgelegt ist, solchen polarisierenden und provozierenden Inhalten mehr Reichweite zu verleihen, da sie so mehr Aufmerksamkeit und Reaktionen von Nutzer*innen stimulie- ren. Wie bereits thematisiert, sollen Nutzer*innen so viel und so lang involviert werden und aktiv blei- ben wie nur möglich, um das Netzwerk am Leben zu erhalten. Ein Eingreifen von technischer Seite ist von Plattformbetreibenden meistens nicht gewollt, da es sich mit ihrem Geschäftsmodell nicht ver- 76
Artefakte der Digitalisierung einbaren ließe. Dieses ist allein darauf ausgerichtet, Informationen über das Nutzer*innenverhalten zu generieren, um sie dann an die Werbebranche zu verkaufen. Auch die von Nutzer*innen erstellten Inhalte im Netz spiegeln gesellschaftliche Ungleichheiten wi- der: Keitel und Diegmann (2016: 97) zeigen, dass die Online-Enzyklopädie Wikipedia wenige Einträge von Frauen, über Frauen oder über Erfahrungen von Frauen aufweist. Dies hat wiederum einen rück- suchen. (vgl. Drüecke 2019: 1379) So werden bestehende Denken Sie an Verhältnisse von Sichtbarkeit reproduziert und es wird einen Wissenschaftler Welche Bilder haben einer heranwachsenden Internet-Generation signalisiert, wir im Kopf, wenn wir an Wissenschaftler denken? welche Themen oder Persönlichkeiten als relevant gelten – Download verfügbar → oder eben nicht. Netzwerke haben als kommunikative und kollaborative Technologien auch einen nicht zu unterschät- und der eigenen Identität. Social-Media-Plattformen sind zum digitalen Schauplatz gesellschaftlichen Kräftemessens geworden. Politik und Zivilgesellschaft artikulieren sich hier maßgeblich. Sie stellen deshalb Räume dar, in denen sich Widerstand, Gegenöffentlichkeiten, soziale Bewegungen und auch Rückzugsorte, sogennannte safe spaces, formieren können (vgl. Drüecke 2019: 1380). Diese bleiben von den oben genannten Hierarchien nicht unberührt. Wer dominant, sichtbar oder unsichtbar ist, welche Stimmen gehört und welche ignoriert werden, wird auch hier von gesellschaftlichen Macht- was als digitale Öffentlichkeit gilt, was dort gesehen werden kann und was nicht (vgl. Gillespie 2014). Obwohl Netzwerke als „demokratische“ und „partizipative“ Technologien gelten, schaffen strukturel- tendenziell weniger gesehen werden, weniger Handlungsspielraum haben und Bedrohungen ausge- setzt sind. Auf der Ebene der persönlichen Beziehungen sind die Veränderungen durch digitale Kommunikations- - auf die Bedeutung von Freundschaften, romantischen Beziehungen, Intimität, Vertrauen, Privatsphä- re und Sicherheit. Die Kommunikationsformen sind nicht immer positiv zu bewerten. Wie bereits the- matisiert wurde, werden die vielfältigen Möglichkeiten von vernetzter Kommunikation oftmals dazu verwendet, andere zu bedrohen oder Falschinformationen zu verbreiten. Eine relativ neue Technolo- gie stellen Überwachungsapps dar, die auf Smartphones oft ohne das Wissen ihrer Besitzer*innen ins- talliert werden, um Informationen über Standorte und Nutzungsverhalten an ein anderes designiertes Gerät zu senden. Die Entscheidung führender Anti-Viren-Software-Hersteller*innen, solche „Stalker- Apps“ als feindselige Programme zu erkennen, war ein Politikum. (vgl. Köver 2019) Lopez-Neira et al. liefern in ihrem Beitrag Einblicke in eine neue Dimension von digitaler Gewalt, die mit der Anbindung von Haushaltsgeräten und heimischen Sicherheitssystemen an das Inter- 77
[Leonie Dorn] net möglich gemacht wurde. Dies öffnet buchstäblich Tür und Tor für neue Formen der Kontrolle, Überwachung und Belästigung. Lichtsysteme, Kameras oder Alarmanlagen können manipuliert, Lautsprecher abgehört und Küchengeräte ferngesteuert werden. Dies sind alles neue Formen von Missbrauch, die beim Design der Technologien nicht mitbedacht wurden. (vgl. Lopez-Neira et al. 2019: 22 ff.) Dass dies nicht nur im Smart Home, sondern beispielsweise auch auf Musik-Festivals passiert, zeigte eine Recherche von STRG_F (vgl. Beyer 2020). Zentral ist dabei die Frage von Macht und Technikkompetenz. Frauen fallen überdurchschnitt- schlechter ausgebildet als Männer. Auch Sozialarbeiter*innen in Beratungsstellen für häuslichen 2019: 24) Diese Formen von digitaler Gewalt zeigen, dass ein dringendes Bedürfnis nach einem neu- en Sicherheitsdiskurs und einer entsprechenden Netzpolitik besteht, die die Gefahren von digitaler Gewalt in den Blick nimmt. (vgl. Lopez-Neira et al. 2019) In den vorgestellten Texten wird deutlich erkennbar, dass bei keinem anderen digitalen Artefakt die Entwicklung der Technologie und die Kultur der Nutzer*innen auf so direkte und explizite Art und Weise verwoben sind, wie in Netzwerken und Online-Communities. Teilnehmende haben einen - nung auf Veränderungen durch Partizipation – auch wenn deutlich geworden ist, dass die Hürden für marginalisierte Gruppen sehr hoch sind. Doch die Nutzer*innen allein sind nicht das Netzwerk. Auch Anbieter*innen und Betreiber*innen von Netzwerken müssen in die Verantwortung genommen werden. Struktur, Aufbau und die Mo- deration von Filtermechanismen, die der Logik der Datenökonomie folgen, formen das Artefakt. Dies wird auch anhand aktueller Diskussionen über die herrschende Debattenkultur und Fake News deutlich. Wie können also Netzwerke geschaffen werden, die Ungerechtigkeiten berücksichtigen und aus- gleichen können? Nakamura argumentiert, dass unterschiedliche Ansätze dabei helfen können. Es gibt Versuche, mit Bewusstseinsbildung und Kampagnen die Netzkultur zu verändern, wozu auch das Sammeln und Archivieren von Hasskommentaren gehört. Andererseits bieten Veränderungen an der Netzwerkstruktur wie Blocken, Melden oder Moderieren die Möglichkeit, gemeinsame Ver- haltensregeln umzusetzen. (vgl. Nakamura 2014: 87) Nicht alle Maßnahmen sind jedoch zielführend. Das von Keitel und Diegmann vorgestellte Gegen- beispiel zur männlich-dominierten Wikipedia – das „Gender-Glossar“ – hat durch den Mangel an technischen Partizipations- und Interaktionsmöglichkeiten keinen Netzwerkcharakter mehr, son- dern wurde zu einer Online-Publikation für Akademiker*innen. Durch den Einsatz einer Redaktion wurden die genannten Grundursachen für das Fernbleiben von Frauen nicht aus dem Weg geräumt. Genau das braucht es jedoch. Wenn gesellschaftliche Missstände nicht adressiert werden, der Zu- gang zu Technologie für benachteiligte Gruppen nicht verbessert und Kompetenzen nicht aufge- baut werden, können Netzwerke ihr demokratisches Potential nicht erfüllen. 78
Sie können auch lesen