Mensch und Technik in Interaktion - Wie gelingt individuelle digitale Souveränität?
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
PRIVATHEIT UND DATENSCHUTZ 1 Mensch und Technik in Interaktion Wie gelingt individuelle digitale Souveränität?
EDITORIAL 3 Grußwort welche Daten sammeln. Oder es entsteht ein digitaler Assistent, der Jugendlichen durch verschiedene Micro-Ga- mes spielerisch Datenschutz-Kompetenzen beibringt. In die Entwicklung des Assistenten wurden Jugendliche miteinbe- zogen. UNSER ALLTAG, OB PRIVAT ODER BERUFLICH, wird immer di- Das ist wichtig, denn: Bei allen Innovationen muss der gitaler. Egal, ob bei Online-Bestellungen, Videokonferenzen Mensch im Mittelpunkt stehen. Die Technikentwicklung oder zuhause im Smart Home: In vielen Lebensbereichen muss potentielle Nutzerinnen und Nutzer von Anfang an nutzen wir digitale Technologien. Dabei hinterlassen wir mit an Bord holen. Es gilt herauszufinden, wie sie ermutigt zahlreiche Daten im Netz. Aber wissen wir auch immer, wem werden können, sich mit der Datenverwendung in digitalen wir unsere Daten geben? Oder wozu sie genutzt werden? Technologien auseinanderzusetzen und wie diese für sie Persönliche Daten weiterzugeben, ist nicht grundsätzlich verständlich gemacht werden kann. Die geförderten Projek- falsch, das zeigt etwa die Corona-Warn-App. Aber oft sind te sind interdisziplinär und berücksichtigen technologische wir uns gar nicht bewusst, was mit unseren Daten im Netz genauso wie juristische, ethische und sozialwissenschaft- passiert. Oder wir sind aufgrund des Aufwands und der liche Erkenntnisse. Nur so findet eine Technik den Weg in Komplexität entmutigt herauszufinden, wie wir bei der Da- unseren Alltag, die verantwortungsvoll mit unseren Daten tenweitergabe mitreden können. umgeht und mit der wir souverän umgehen können. Deshalb hat das Bundesministerium für Bildung und Diese Publikation präsentiert Ihnen die ganze Bandbreite Forschung (BMBF) die Fördermaßnahme „Mensch-Tech- unserer Forschungsprojekte zu digitaler Souveränität. Ich nik-Interaktion für digitale Souveränität (DISO)“ ins Leben wünsche Ihnen eine spannende und informative Lektüre! gerufen. So fördert es Projekte, die Menschen dabei helfen, selbstbestimmt und reflektiert mit ihren Daten und digi- talen Technologien umzugehen. Kurz gesagt: Ihre digitale Souveränität zu stärken. Digitale Souveränität ist ein Querschnittsthema, das viele Technologien und unterschiedliche Themen berührt. Genauso vielfältig und unterschiedlich sind auch die Themen der Projekte, die das BMBF mit DISO fördert. Zum Beispiel wird eine Augmented-Reality-Anwendung für ein Smart Home entwickelt, die Datenströme visualisiert. Sie sehen mit eigenen Augen, welche Geräte im Smart Home Prof. Dr. Veronika von Messling Leiterin Abteilung „Lebenswissenschaften“ Bundesministerium für Bildung und Forschung
4 Mensch und Technik in Interaktion WIE GELINGT INDIVIDUELLE DIGITALE SOUVERÄNITÄT? DIGITAL AUTONOMY HUB Impressumsangaben: November 2021 Veröffentlicht von Gesellschaft für Informatik e. V. Geschäftsstelle Berlin Spreepalais am Dom – Anna-Louisa-Karsch-Str. 2 – 10178 Berlin AW AlgorithmWatch gGmbh Linienstr. 13 – 10178 Berlin Kontakt Info@digitalautonomy.net Webseite www.digitalautonomy.net Redaktion (Gesellschaft für Informatik e. V.) Paula Böhme Cin Pietschmann Elisabeth Schauermann Inga Sell Umfrage Ipsos GmbH Korrektorat Carlos Gluschak Gestaltung Daniela Greven Illustration Julia Praschma Gefördert durch das Bundesministerium für Bildung und Forschung
EDITORIAL 5 Inhalt Möglichkeiten digitaler Kompetenz- bildung im Berufsleben, Beitrag von Alexander Knoth 34 „Souveräne Techniknutzung in der nachberuflichen Lebensphase“, EDITORIAL Interview mit Dr. Janina Stiel 37 Grußwort 3 Innovative Einblicke: Digitale Assistenten 40 Vorwort 6 PANDERAM 40 Methodensteckbrief 7 DigS-Gov 41 ViCon 41 1/ 4/ GESAMTSCHAU: SECHS PERSPEKTIVEN AUF TECHNIKGESTALTUNG 40 INDIVIDUELLE DIGITALE SOUVERÄNITÄT 8 „Chancen der menschenzentrierten 2/ Technikforschung“, PRIVATHEIT UND DATENSCHUTZ 12 Interview mit Prof. Dr. Claudia Müller-Birn 40 „Verantwortung von und ethische „Privatheit und damit verbundene Sorgen“, Grundsätze für Entwickler·innen“, Interview mit Prof. Dr. Sabine Trepte 12 Interview mit Alexander von Gernler 45 „Datenschutz stört meine Arbeit“, Innovative Einblicke: Interaktive Visualisierung 48 Beitrag von M1$c 15 SIMPORT 48 „Von unterstellter Ignoranz und InviDas 49 systemischer Hilflosigkeit – Selbstdaten- UsableSec@Home 49 schutz zwischen Theorie und Praxis“, „Die Wirtschaftlichkeit individueller Beitrag von Luise Kranich 17 digitaler Souveränität“, Innovative Einblicke: Datenspende 12 Interview mit Dr. Marija Radić 50 WerteRadar 12 „In der Praxis: Mensch-Technik-Interaktion DataSkop 13 für Gesundheit und Selbstbestimmung“, „Governance von Datenschutz“, Interview mit Marie Kochsiek 52 Interview mit Murat Karaboga 22 „Tipps zum Selbstdatenschutz“, Beitrag von Bettina Müller 24 3/ DIGITALE KOMPETENZEN 26 „Zwischen Autonomie und Schutzbedarf – Kinder in einer von digitalen Medien geprägten Welt“, Beitrag von Jutta Croll, Dr. Jan-Christoph Heilinger und Prof. Dr. Saskia Nagel 27 Innovative Einblicke: Gamification 30 A-DigiKomp 30 ePA-Coach 31 „Junge Generationen zwischen sozialer Teilhabe und Datenschutz“, Interview mit Dr. Johanna Schäwel 32
6 EDITORIAL Vorwort Stimmen aus dem Beirat des Digital Autonomy Hubs reflektieren unseren transdisziplinären Ansatz bereits in der Gesamtschau und machen hoffentlich Lust auf einen tieferen Einstieg in die Lektüre. Im Kapitel „Privatheit und Datenschutz“ gehen wir auf Sorgen und Risiken für die Privatsphäre, aber auch auf individuelle und gesellschaft- Über 70 % der Menschen in Deutschland sind besorgt um liche Möglichkeiten für einen mündigen Umgang mit Daten ihre Daten bei der Nutzung digitaler Dienste und über 90 % ein. Daran anschließend beleuchten wir im Kapitel „Digitale bemühen sich zumindest hin und wieder um Datenschutz in Kompetenzen“ die unterschiedlichen Bedarfe und Mög- der alltäglichen Nutzung von Diensten und Geräten – Da- lichkeiten für den Kompetenzaufbau und den souveränen tenmündigkeit in der Techniknutzung ist ein relevantes und Umgang mit Technologie in jedem Alter. Schließlich stellen herausforderndes Thema. wir im Kapitel „Technologieentwicklung“ Erfolgsfaktoren für eine Steigerung der individuellen digitalen Souveränität vor Das Kompetenzzentrum „Digital Autonomy Hub – Technik und zeigen innovative Ideen für Mensch-Technik-Interakti- souverän nutzen“ verfolgt das Ziel, allen Menschen einen onen. Im Format „Innovative Einblicke“ stellen wir die zehn reflektierten und selbstbestimmten Umgang mit Technolo- Forschungsvorhaben des Digital Autonomy Hubs vor, die im gie zu ermöglichen. Die vom Bundesministerium für Bildung Programm „Mensch-Technik-Interaktion für digitale Souverä- und Forschung (BMBF) im Forschungsprogramm „Mitein- nität“ gefördert werden. ander durch Innovation“ geförderten Projekte, die wir seit 2020 in ihrer angewandten Forschung begleiten, entwickeln Wir hoffen, Ihnen mit der vorliegenden Publikation einen innovative nutzerzentrierte Lösungen, um Menschen mehr Einstieg in den Themenkomplex rund um individuelle Wissen und bessere Handhabe über ihr digitales Leben und digitale Souveränität in der Techniknutzung zu bieten und ihre persönlichen Daten zu geben. Möglichkeiten für Innovationen aufzuzeigen. Das Team des Digital Autonomy Hubs wünscht Ihnen viel Freude und Vor diesem Hintergrund führten wir im Frühjahr 2021 mit spannende Einsichten beim Lesen. dem Forschungsinstitut Ipsos eine repräsentative Umfrage durch, in der wir Menschen nach ihren persönlichen Einstel- lungen, Sorgen und Hoffnungen in der alltäglichen Technik- nutzung befragten. In dieser Publikation präsentieren wir die Ergebnisse und ordnen sie mithilfe von Expert·innen ein. Mit Perspektiven aus Informatik, Pädagogik, Ethik, Recht und Wirtschaftswissenschaften tragen wir der Breite unserer Fragestellungen in dieser Publikation Rechnung. Elisabeth Schauermann Projektleiterin Digital Autonomy Hub Gesellschaft für Informatik e. V.
EDITORIAL 7 Methoden- BEFRAGUNGSZEITRAUM UND ANZAHL DER BEFRAGTEN Die Befragung wurde im März 2021 durchgeführt. Für die steckbrief finale Auswertung wurden die Daten von insgesamt 2000 Fragebögen verwendet. EINORDUNG Durch die Verwendung von CAWI schließt die Stichprobe ausschließlich Proband·innen ein, die Zugang zu einem METHODIK Computer mit Internetverbindung haben und über ein Das Marktforschungsunternehmen Ipsos wurde beauftragt, Grundverständnis der Computernutzung verfügen. mit quantitativen Methoden den Status quo im Hinblick auf Die qualitativen Beiträge von Expert·innen dienen der Techniknutzung, digitale Kompetenzen, Datenschutzwis- Einordnung der Umfrageergebnisse und erlauben eine sen und -maßnahmen sowie Informationsverhalten in der Betrachtung von Fragestellungen und Zusammenhängen, deutschen Bevölkerung zu erforschen. Ebenso Teil dieser die in einer quantitativen Umfrage nicht abgebildet werden Studie war die Erforschung passender Lösungsansätze, die können. zur digitalen Ermächtigung beitragen können. STUDIENTEILNEHMENDE Deutschsprachige Allgemeinbevölkerung ab 18 Jahre ERHEBUNGSMETHODE Computer Assisted Web Interviews (CAWI) STICHPROBE UND GEWICHTUNG Proband·innen wurden durch das Ipsos Online Access Panel geworben. Die Stichprobe wurde nach Alter, Geschlecht, Re- gion und Bildungsstand quotiert und nach Alter, Geschlecht und Region gewichtet.
8 PRIVATHEIT UND DATENSCHUTZ 1/ G ESAMTSCHAU: SECHS PERSPEKTIVEN AUF DIGITALE SOUVERÄNITÄT Das Digital Autonomy Hub wird von Vertreter·innen der Netzwerkprojekte sowie von exter- nen Expert·innen beraten. Der Beirat begleitet die Aktivitäten des Hubs, um den Themen- komplex „individuelle digitale Souveränität“ für Politik, Wirtschaft, Zivilgesellschaft und Wissenschaft fundiert aufzubereiten. Um die verschiedenen Perspektiven der digitalen Souveränität zu beleuchten, setzt sich der Beirat transdisziplinär zusammen. Sechs Stim- men der Mitglieder haben wir aufgegriffen. Sie gehen darauf ein, welche Aspekte aus recht- licher, gesellschaftlicher, technischer, ökonomischer, ethischer und medienpädagogischer Perspektive relevant sind. RECHT „Echte Selbstbestimmung basiert auf individu- eller digitaler Souveränität: Menschen sollen in der Regel selbst über den Umgang mit ihren Daten bestimmen können – ganz ohne Beein- flussung, Druck oder das Gefühl der Ohnmacht angesichts der Komplexität von IT-Systemen. Aus Bequemlichkeit nehmen viele Fremdbe- stimmung in Kauf und ohne ausreichendes Verständnis und Risikobewusstsein sind Miss- brauch und Manipulation Tür und Tor geöffnet. Daher müssen die rechtlichen Vorgaben der Da- tenschutz-Grundverordnung ernst genommen werden. Insbesondere muss ‚Datenschutz by Default‘ der Startpunkt einer jeder Verarbeitung personenbezogener Daten sein.“ Marit Hansen, Landesbeauftragte für Datenschutz Schleswig-Holstein, ULD
PRIVATHEIT UND DATENSCHUTZ 9 GESELLSCHAFT „Während Konsument·innen in der freien Markt- wirtschaft die Wahl haben, wo welche persönli- chen Daten weitergegeben werden – bspw. kann man zwischen etlichen E-Commerce-Anbietern oder Messenger-Anwendungen auswählen oder auch auf deren Angebote ganz verzichten –, be- steht diese Wahlfreiheit im öffentlichen Sektor nicht. Um Leistungen in Anspruch nehmen zu können oder um rechtliche Anforderungen zu erfüllen, müssen Bürger·innen entsprechende Dienste nutzen und teilweise hochsensible Daten bereitstellen. Diese besondere Bezie- hung zwischen dem Staat und den Bürger·innen erfordert es, dass Maßnahmen zur Erhöhung der digitalen Souveränität besonders sorgfältig gestaltet werden.“ Prof. Dr. Moreen Heine, E-Government und Open Data Ecosystems, Universität zu Lübeck TECHNIK „In der Softwareentwicklung ist es wichtig, vertrauenswürdige Software gemeinsam mit den Nutzenden zu entwickeln und Assistenz- mechanismen für alle Typen von Nutzer·innen einzubauen. Ich vertraue einem System mehr, wenn die Software bereits automatisiert offen- legt, welche ihre internen Mechanismen sind und wie z. B. persönliche Daten verarbeitet oder Entscheidungen getroffen werden. Intelligente Assistenz bietet den jeweiligen Nutzer·innen an sie und deren Kontext angepasste Hilfestellun- gen. Durch die Nutzung von modellbasierten und generativen Entwicklungsmethoden kann man solche Mechanismen bereits automatisiert integrieren und erleichtert es so weniger tech- nikaffinen Menschen, selbstbestimmt Systeme zu nutzen.“ Dr. Judith Michael, Lehrstuhl für Software Engineering, RWTH Aachen
10 PRIVATHEIT UND DATENSCHUTZ WIRTSCHAFT „Digitale Geschäftsmodelle nutzen Daten als Schlüsselressource für die Wertschöpfung. Heute ‚bezahlen‘ Nutzer·innen daher häufig mit ihren Daten, ohne genau zu verstehen, was damit passiert oder was diese wert sind. Hier fehlt häufig noch die Transparenz seitens der Unternehmen. Damit sich das ändert, sind bei der Entwicklung digitaler Geschäftsmodelle auch die Perspektiven von Ökonomie, Infor- matik, Ethik und Recht einzubeziehen. Unsere Forschung zeigt, dass dieser interdisziplinäre Ansatz Unternehmen dabei unterstützt, wirt- schaftlich tragfähig zu agieren und die Souverä- nität von Nutzer·innen zu stärken.“ Dr. Marija Radić, Fraunhofer IMW MEDIENPÄDAGOGIK „Elektronische Datenverarbeitung verändert seit Jahrzehnten die Grundlagen unseres Zusammenlebens, Maschinenlernen hat diese Veränderungen beschleunigt. Solche technolo- gischen Bedingungen unserer Gesellschaft zu reflektieren und zu verstehen, muss ein zen- trales Ziel von Bildungsarbeit sein. Nur wenn Menschen in die Lage versetzt werden, sich diese Fragen zu erschließen, sie zu bewerten und echte Handlungsoptionen zu entwickeln, können wir demokratische Teilhabe stärken, um auch mit neuen Technologien eine gerechte und solidarische Gesellschaft zu schaffen.“ Robert Behrendt, medialepfade
PRIVATHEIT UND DATENSCHUTZ 11 ETHIK „Ethik sucht und prüft kraft praktischer Ver- nunft Kriterien und Ermöglichungsbedingungen ‚guten Lebens‘. Sie liefert eine Checkliste, nach der man die digitale Wirtschaft und Gesell- schaft verantwortlich ausgestalten kann: • Welche Gestaltungsoption wird allen am meisten nützen und am wenigsten schaden? (utilitaristischer Ansatz) • Welche Option respektiert die Rechte aller Beteiligten am besten? (Rechte-Ansatz) • Welche Option wird Menschen gleich oder doch fair behandeln? (Gerechtigkeitsansatz) • Welche Option eignet sich am besten für die gesamte Gesellschaft? (Gemeinwohlansatz) • Welche Option ermöglicht mir, als die Art von Person aufzutreten, die ich sein möchte? (Tugendethik-Ansatz)“ Prof. Dr. Wolfgang M. Schröder, Universität Würzburg
12 PRIVATHEIT UND DATENSCHUTZ 2/ PRIVATHEIT UND DATENSCHUTZ Sorgen um die eigene Privatsphäre sind in einer zunehmend digitalisierten Welt verbreitet, eng verbunden hiermit sind Fragen zum Schutz der persönlichen Daten. Auf individueller und gesellschaftlicher Ebene bestehen sowohl Möglichkeiten für den Datenschutz als auch Hürden in der Umsetzung. In diesem Kapitel wird ein Blick auf Datenschutz und Privatheit im Spannungsfeld von Theorie und Praxis geworfen. Privatheit und damit verbun- dene Sorgen Interview mit Prof. Dr. Sabine Trepte Zunächst eine grundlegende Frage: ren soll und Sie diesen Wunsch Wie hängt nun Privatheit mit Da- Was ist Privatheit überhaupt? auch umsetzen können, dann tenmündigkeit in der Techniknut- entspricht die Situation Ihren zung zusammen? Prof. Dr. Sabine Trepte: Sie steigen Vorstellungen von Zugänglichkeit. mit der schwierigsten Frage ein! Und wenn Sie beispielsweise mit Informationelle Selbstbestimmung Ich gebe mein Bestes: Also, mir drei Freund·innen in Ihrer Küche oder Datenmündigkeit implizie- gefällt die Idee von Privatheit als sitzen und plaudern und gern ren genau den Kern der gerade bedürfnisorientierte Zugänglich- viel von sich berichten möchten, genannten Idee von Privatheit. Bei keit. Privatheit fühlen Menschen dann entspricht dies ebenfalls der informationellen Selbstbe- je nachdem, wie zugänglich sie Ihren Vorstellungen von Zugäng- stimmung geht es nämlich nicht für andere sind und ob diese lichkeit. Beide Situationen ent- nur darum, wie viel oder was Zugänglichkeit ihren Bedürfnis- sprechen einem Empfinden von Menschen von sich preisgeben, sen in einer bestimmten Situa- Privatheit, obwohl Sie anderen sondern ob dies ihren Bedürfnis- tion entspricht. Wenn Sie also Menschen in der einen Situation sen entspricht und ob es in einer beispielsweise U-Bahn fahren, sehr wenig, in der anderen sehr bestimmten Situation angemessen niemand etwas von Ihnen erfah- viel preisgeben. ist. Und hier fällt schon etwas auf:
PRIVATHEIT UND DATENSCHUTZ 13 Die Beurteilung, ob die Verwen- sich nicht in alles hineindenken genen Daten besorgt ist. Das sind dung von Daten den Bedürfnissen müssen. In diese Normen vertrau- zu viele, die sich Sorgen machen! eines Menschen entspricht oder en zu können, ist genauso wichtig Wenn Menschen Sorgen haben, angemessen ist, setzt voraus, dass wie die selbstbestimmte Entschei- dann deutet dies darauf hin, dass sie überhaupt wissen, dass Ihre dung. ihnen Informationen fehlen, dass Daten erhoben werden und was ihre Kontrollbedürfnisse noch damit gemacht wird. Das ist heute In unserer repräsentativen Studie nicht ausreichend ernst genom- bei den meisten Anwendungen geben rund 70 % der Befragten men oder wahrgenommen werden. nicht der Fall. Manchmal ist das an, dass sie besorgt darüber sind, Die Sorgen der Menschen sind ein echter Jammer, denn es wäre dass digitale Geräte und Anwen- gleichzeitig für uns ein wichtiger gut, wenn die Menschen besser dungen Daten über sie sammeln Hinweis: Wir haben noch viel zu informiert wären und informierte und verarbeiten. Nur wenige tun damit, für die informationelle Entscheidungen über die Da- machen sich jedoch große Sorgen. Selbstbestimmung zu kämpfen. tenverwendung treffen könnten. Deckt sich dieser Befund mit Ihren Zum Glück sind Wissenschaft- Manchmal ist es aber auch gar Erfahrungen? ler·innen, Datenschützer·innen, nicht erforderlich. An manchen Jurist·innen und viele andere Ex- Stellen helfen soziale und regula- Ja, die meisten Studien über die pert·innen nach wie vor sehr aktiv tive Normen weiter und schützen Sorgen zur Privatheit zeigen, dass dabei, das zu verbessern. Eigent- Menschen. Normen regeln, dass die Mehrheit der Deutschen nach lich sollten wir das Internet nutzen beispielsweise Internetnutzende wie vor um die Verwendung der ei- können, ohne uns große Sorgen im Allgemeinen zu machen. Aber bitte sorgen Sie sich weiter, wenn es um Die Mehrheit der Befragten (73,2 %) ist besorgt, dass spezifische Anwendungen geht. digitale Geräte und Anwendungen Daten über sie Zum Beispiel, wenn Sie sich bei ei- sammeln. nem neuen Portal anmelden, bitte machen Sie sich Sorgen! Das führt JA, ETWAS: 51,7 % nämlich dann dazu, dass Sie sich informieren, die Meinung anderer einholen und nachdenken. Wie gehen Menschen mit Privat- heit um? Wie können wir verste- hen, dass einige Menschen gerne NEIN, EHER NICHT: 20,5 % DAS KANN ICH NICHT EINSCHÄTZEN: 2,9 % und freiwillig ihre Laufzeiten oder Fotos online teilen, sich aber dennoch Sorgen über ihre Daten- JA, SEHR: 21,5 % spuren machen? NEIN, GAR NICHT: 3,5 % Sorgen sind ein Gefühl der Unsi- cherheit, der Zurückhaltung, bei stärkeren Sorgen können sie in Angst münden. Sorgen sind aus psychologischer Perspektive ein wichtiger Indikator für uns Men- schen, dass wir mehr Informatio- nen benötigen, dass wir nicht Ruhe geben können, dass wir uns mit anderen austauschen möchten. Basis: alle Befragten (n = 2000). Darstellung der Top 2 und Bottom 2. Angaben in Sorgen sind ein Ausrufezeichen Prozent. Frage Q5: Sind sie besorgt darüber, dass digitale Geräte und Anwendungen (z. B. Apps, Webseiten, Smartphones) Daten über Sie sammeln und verarbeiten? auf unserer To-Do-Liste. Bedeutet © Ipsos | Digital Autonomy Hub dieses Ausrufezeichen, dass wir
14 PRIVATHEIT UND DATENSCHUTZ alle damit assoziierten Aktivitäten Wert der Privatheit ändern sich angepasst. Zweitens sind immer einstellen? Auf keinen Fall! Sorge nicht über die Zeit bzw. die Ver- mehr Menschen anonym über bedeutet erst einmal, dass wir änderungen sind marginal. Der den Onion-Browser im Internet wachsam sein müssen und nicht Umgang mit Privatheit bei der unterwegs, um keine Spuren der unbedingt, dass wir das Verhalten Nutzung einzelner Dienste – bei- Online-Recherche zu hinterlassen einstellen. spielsweise ob Menschen ihren und so die kommerzielle Verwen- Klarnamen angeben, ob und wie dung der eigenen Verhaltensda- Hat sich der Umgang mit Privatheit sie die Datenschutzeinstellungen ten zu vermeiden. Drittens ver- durch die verstärkte Techniknut- ändern oder umgehen – hat sich schleiern Menschen gern Aspekte zung in den vergangenen zehn, jedoch verändert. Die meisten sind ihrer Identität, nutzen also keine zwanzig Jahren gewandelt? gut informiert und nutzen drei Klarnamen, wenn sie im Internet Formen des Datenschutzes: Erstens unterwegs sind. Das Bedürfnis nach Privatheit, werden die Datenschutzeinstellun- Privatheitssorgen und auch der gen in den Diensten selbst aktiv Die Besorgnis um die eigene Daten ist unabhängig von der Nutzungshäufigkeit digitaler Anwendungen und Produkte. Prof. Dr. Sabine Trepte, Universität Hohenheim © privat Sabine Trepte ist Professorin für Kommunikationswissen- schaft, insbesondere Medien- psychologie an der Universität Hohenheim in Stuttgart. Ihre Forschungsschwerpunkte lie- gen im Bereich Privatheit und soziale Medien. Besonders inte- ressiert sie die psychologische Perspektive auf den Wandel der Privatheit und wie Medien VIELNUTZER·INNEN: MÄSSIG-NUTZER· WENIG-NUTZER· diesen Wandel beeinflussen. 75,6 % BESORGT, INNEN: 75 % BESORGT, INNEN: 75,3 % 24,4 % NICHT BE- 25 % NICHT BESORGT BESORGT, 24,7 % SORGT NICHT BESORGT Basis: alle Befragten (n = 2000). Darstellung der Top 2 und Bottom 2. Angaben in Prozent. Frage Q5: Sind sie besorgt darüber, dass digitale Geräte und Anwendungen (z. B. Apps, Webseiten, Smartphones) Daten über Sie sammeln und verarbeiten? © Ipsos | Digital Autonomy Hub
PRIVATHEIT UND DATENSCHUTZ 15 Datenschutz stört meine Arbeit Beitrag von M1$c Welche Daten geben wir von uns preis? Und wer interessiert sich über- haupt für unsere Daten? Oft sind die Opfer von Cyberangriffen keine berühmten Persönlichkeiten, sondern arglose Personen, deren Daten besonders einfach zugänglich sind. Hallo, ich bin M1$c und bezeichne mich selbst als Data-Hun- 87,7 % der Befragten be- ter. Ich beschaffe, verarbeite, und verkaufe persönliche Da- fürchten negative Folgen ten. Bei meinen Aufträgen bin ich nicht wählerisch: Hauptsa- che, es bringt Geld ein. durch die Speicherung, Einer der einfachsten Jobs ist es, ein Profil über eine Person anzulegen. Viele Online-Dienste ermöglichen es mir, gebün- Verarbeitung und Nut- delt an alle öffentlich verfügbaren Informationen über eine zung ihrer persönlichen Person zu kommen. Praktischerweise haben die Leute bei fast allen sozialen Medien ein Profilbild. So sehe ich gleich, Daten durch digitale dass ich die richtige Person gefunden habe. Xing und Linke- Technologien.I dIn verraten mir dann nicht nur, wo die Leute schon überall gearbeitet haben, sondern auch den aktuellen Wohnort. Mit ein bisschen Social-Engineering bekomme ich fast immer auch die Adresse heraus. Dafür reicht ein Anruf bei der Wertgegenstände in der Wohnung stehen. Oder ganz aktuellen Arbeitsstelle; ich gebe mich als Sekretär·in der generell, was für Interessen die Person hat. vorherigen Firma aus und sage, wir hätten noch Unterlagen, Das sind alles sehr einfache Möglichkeiten – ich selbst die wir nachschicken müssen. Solange man sehr nett ist habe nur ein paar Tage gebraucht, um sie mir beizubringen. und unbeholfen tut, bekommt man, was man will. Die Leute Dass der Aufwand dafür gering ist, merkt man auch an den freuen sich oft sogar, mir zu helfen. vielen Angriffen, die täglich stattfinden. Spear-Phishing ist Sich dumm stellen, funktioniert meist auch sehr gut, um die eine weitere einfache Möglichkeit, an Daten zu kommen. Zwei-Faktor-Authentifizierung zu umgehen: „Ich kann mich Mit sehr einfachen HTML-Programmier-Skills baut man nicht mehr einloggen ... ich weiß nicht, welchen Knopf ich da eine bekannte Webseite nach. Muss nicht perfekt sein, drücken muss.“ Das zur Umgehung benötigte Geburtsdatum muss meine Opfer ja nur dazu bewegen, ihre Daten in mein geben viele bereitwillig online an, etwa wenn sie stolz ein Formular einzugeben. E-Mail, Passwort, Sicherheitsabfra- Bild ihres Geburtstagskuchens twittern. Manchmal muss ich ge, vielleicht noch die IBAN – und schon kann es losgehen. nicht einmal anrufen, um die notwendigen Informationen zu Auch Gewinnspiel-Formulare eignen sich super, um schnell bekommen. Die Smartphones, die wir mit uns herumtragen, an viele E-Mail-Adressen zu kommen. Allein die Chance auf speichern in jedem Bild den Standort, an dem es aufgenom- den Gewinn reicht, damit die Leute ihre Daten hergeben. men wurde. So erfahre ich nicht nur, wo die Person wohnt, Ein halbes Jahr später verschicke ich dann Spam. Das ist zu sondern auch, wo sie am liebsten essen geht, wo sie jeden viel Zeit, als dass sie noch nachvollziehen können, was die Morgen auf dem Weg zur Arbeit vorbeikommt, und dass sie eigentliche Ursache für den Spam war. gerade im Urlaub ist. Die vielen Bilder mit der Katze zeigen Eine Telefonnummer ist übrigens fabelhalft. Fast alle mir außerdem, dass diese Person allein wohnt und welche Dienste erwarten heutzutage, dass man eine angibt. So I Basis: alle Befragten (n = 2000). Darstellung derer, die mindestens eine negative Folge auswählten. Frage Q7: Welche negativen Folgen befürchten Sie durch die Spei- cherung, Verarbeitung und Nutzung Ihrer persönlichen Daten durch digitale Tech- nologien? Bitte klicken Sie die Items nach empfundener Negativität geordnet an. 1 = am negativsten, 2 = am zweitnegativsten, etc..© Ipsos | Digital Autonomy Hub
16 PRIVATHEIT UND DATENSCHUTZ Am meisten fürchten sich die Befragten vor der Veröffentlichung von privaten Informationen. DER STAAT ERHÄLT ZU VIEL WISSEN UND MACHT VERÖFFENTLICHUNG VON IN MEINER POLITISCHEN MEINUNG PRIVATEN INFORMATIONEN MANIPULIERT ZU WERDEN KEINE SELBST NICHT ZU WISSEN, WAS MIT MEINEN DATEN PASSIERT UNTERNEHMEN ERHALTEN IN MEINEM VERHALTEN MANIPULIERT ZU ZU VIEL WISSEN UND MACHT WERDEN (Z. B. KAUFENTSCHEIDUNGEN) Basis: Befragte, die negative Folgen sehen (n = 1755). Darstellung des Rang 1. Frage Sie die Items nach empfundener Negativität geordnet an. 1 = am negativsten, 2 = am Q7: Welche negativen Folgen befürchten Sie durch die Speicherung, Verarbeitung zweitnegativsten etc..© Ipsos | Digital Autonomy Hub und Nutzung Ihrer persönlichen Daten durch digitale Technologien? Bitte klicken kann ich auch andere Accounts finden und weiß, dass sie Meine Berufsaussichten? Super! Daten sind gefragt und zu- zur selben Person gehören. Die Nummer ist ja fast so ein- nehmend verfügbar durch diverse Online-Dienste. Was mir deutig wie die Personalausweisnummer. die Arbeit jedoch erschwert, sind Menschen, die um meine Am meisten Spaß an meinem Job macht mir allerdings die Tätigkeiten wissen und auf ihre Daten aufpassen. Manipulation von Menschen. Wenn man es richtig macht, verstehen sie nicht einmal, dass sie manipuliert wurden. Ab- surd, aber die meisten Menschen fühlen sich gefeit vor poli- Sie haben doch nicht ernsthaft tischer Manipulation. Schon klar, niemand will beeinflussbar erwartet, dass Sie hier persönliche sein. Aber war es wirklich eine ganz eigene autonome Idee, Daten über M1$c finden, oder? Da- nicht wählen zu gehen, um damit „ein Zeichen zu setzen“? tenschutz ist wichtig, das wissen Oder habe ich die politische Meinung herausgefunden, sie Sie doch! Das Porträt wurde vom für doof gehalten und absichtlich Beiträge angezeigt, die Lehrstuhl für Privatsphäre und eine Nicht-Wahl nahelegen? Solche Beeinflussungen finden Sicherheit in Informationssyste- tatsächlich täglich statt – und ich freue mich, wenn sie funk- men an der Universität Bamberg- tionieren. geschrieben.
PRIVATHEIT UND DATENSCHUTZ 17 Von unterstellter Ignoranz und systemischer Hilflosigkeit: Selbstdatenschutz zwischen Theorie und Praxis Beitrag von Luise Kranich Selbstdatenschutz erfordert passende Rahmenbedingungen, geeignete Werkzeuge und viel Eigeninitiative – Nutzen und Wirkung bleiben aber häufig im Verborgenen. Ein (Er-)Klärungsversuch. Selbstdatenschutz – was ist das eigentlich? den Selbstdatenschutz als vornehmlich aktive Selbsthilfe Eine grundlegende Definition des Begriffs Selbstdatenschutz oder Selbstverteidigung, – auch dann, wenn sich „Personen finden wir in der Zielsetzung des Digital Autonomy Hubs, der einem die Privatsphäre bedrohenden Umfeld gegenüberse- u. a. Nutzer·innen dazu ermutigen und ermächtigen soll, sich hen und ihre eigenen Datenschutzpräferenzen durchsetzen mit der eigenen Datensouveränität zu beschäftigen und ak- möchten“ 1. Gerade bei der Betrachtung möglicher Hürden tiv zu werden. Eine engere Definition, bei der auch die tech- und Anreize wird deutlich, warum diese Unterscheidung nischen, organisatorischen sowie rechtlichen Möglichkeiten relevant ist. und Herausforderungen konkreter sichtbar werden, begreift Die größte Barriere beim Schutz der eigenen Daten ist mangelnde Zeit, sich durch Datenschutzeinstellungen zu klicken. 5,2 3,1 2,8 2,8 2,5 2,4 2,2 Ich weiß nicht, Ich habe sowieso Es gibt keine Ich verstehe Ich befürchte Der welche Einstel- keine Kontrolle alternativen Datenschutz- berufliche/sozi- Wechsel zu lungen ich ändern über meine Anwendungen, erklärungen ale Ausgrenzung, datenschutz- Ich habe keine Zeit, mich muss und/oder Daten. bei denen der nicht. wenn ich Dienste freundliche- durch Datenschutzeinstel- wo ich diese Datenschutz nicht nutze, bei ren Alterna- lungen zu klicken. finde. besser ist. denen ich der tiven ist zu Datenverarbei- umständlich. tung zustimmen muss, um sie zu verwenden. Basis: Befragte, die sich mit dem Schutz ihrer Daten mindestens etwas überfordert Daten im Alltag? Bitte ordnen Sie die folgenden Aussagen in eine Rangfolge. Bitte fühlen (n = 1620). Darstellung der Rangmittelwerte von 7 (= Anzahl der Ränge) sub- klicken Sie die Items nach Erschwerungsgrad an: 1 = größte Hürde, 2 = zweitgrößte trahiert. Frage Q18: Welche Dinge erschweren Ihnen den Schutz Ihrer persönlichen Hürde etc.. © Ipsos | Digital Autonomy Hub 1 Wagner, Manuela (2020): Datenökonomie und Selbstdatenschutz. Grenzen der Kom- merzialisierung personenbezogener Daten. [1. Auflage]. Köln: Carl Heymanns Verlag (Karlsruher Schriften zum Wettbewerbs- und Immaterialgüterrecht, Band 39).
18 PRIVATHEIT UND DATENSCHUTZ Weichenstellungen beim selbstbestimmten Umgang A: Grundsätzliche Entscheidung über Nutzung verschiede- mit digitalen Diensten ner Produkte 2 Bei der Entscheidung zur selbstbestimmten, souveränen Frage: Möchte ich dieses Angebot (bspw. Messenger-App) Nutzung digitaler Dienste stellen sich Fragen auf unter- nutzen? schiedlichen Ebenen. Je nach Ausgestaltung des Diens- Die vermeintlich simple Abwägung zwischen Nutzen und tes sind diese recht einfach zu beantworten oder bergen Risiko ist für Nutzende mit großer Unsicherheit verbun- versteckte Hürden. Am Ende des Entscheidungsprozesses den: Das Risiko aus Datenschutzsicht ist meist nicht ohne stehen im Wesentlichen drei Szenarien: Nutzung, Askese Weiteres abschätzbar und wird vielen Menschen frühestens oder (aktiver) Selbstdatenschutz im engeren Sinne (s. o.). nach einem bekannt gewordenen Datenleck bewusst. Einen Abbildung 1 zeigt die wichtigsten Weichenstellungen auf Dienst nicht zu nutzen (Abschirmung/Askese), ist dagegen dem Weg zu einem dieser Szenarien. häufig mit hohen (sozialen) Kosten verbunden 3 – fehlen- der Anschluss an ein soziales Netzwerk kann zu Isolation führen, der Verzicht auf ein smartes Thermostat zu höheren Heizkosten. Im beruflichen Kontext könnte die persönliche Präferenz für oder gegen die Nutzung eines Dienstes sogar durch Unternehmensvorgaben aufgehoben werden: Trotz Weichenstellungen zwischen Nutzung, Askese DSGVO und strenger Auflagen im Beschäftigtendatenschutz und Selbstdatenschutz (eigene Darstellung) fehlen in Geschäftsprozessmodellen häufig Privacy-Frage- stellungen.4 B: Alternativprodukte grund- Ist der Umgang mit sätzliche Nut- meinen Daten für Frage: Gibt es funktional vergleichbare Produkte, die eine zungsentschei- Nutzung dung mich akzeptabel? höhere Datensouveränität ermöglichen? Bei einem Vergleich von Alternativen stellen sich Nutzer·in- Nein nen zwei wesentliche Herausforderungen: die Informations- asymmetrie und die Kompatibilität im organisatorischen sowie technischen Sinne. Auch für technisch Versierte ist es schwer, an relevante Ja Gibt es Alternativprodukte? Informationen zu gelangen: Die Prüfung der Vertrauenswür- digkeit der Anbieter sowie die Kompatibilität mit anderen Lösungen ist häufig kaum abzuschätzen und zukünftige Nein Änderungen durch den Anbieter sind nicht vorherzusehen, etwa der Umzug einer Smart-home-Verwaltungssoftware von einer On-Premise-Lösung in die Cloud. Insbesondere bei Ja stark vernetzten Produkten, wie bspw. WLAN-Lautsprechern, Kann ich problemlos Anpassung im Anpassungen vor- vorgegebenen führt eine fehlende technische Interoperabilität häufig zu nehmen? Rahmen Lock-In-Effekten, d. h. ein Wechsel zu anderen Anbietern ist erschwert. Nein C: Anpassbarkeit Frage: Kann ich mögliche Schwachstellen mit vertretbarem Nein Bin ich bereit, die Ja Aufwand selbst beheben? Askese Selbstdaten- Hürden zu überwin- schutz Auch wenn es der nutzenden Person gelingt, die Privatsphä- den? re-Einstellungen eines Dienstes an die eigenen Wünsche anzupassen – bspw. durch aufwändige Neukonfiguration der Cookie-Genehmigungen einer Webseite – ist noch keine 2 Ein ‚Produkt‘ kann hier ein rein digitales Produkt, z. B. eine App oder ein On- Science and Technology Publications, S. 589–595. line-Dienst, oder aber ein cyberphysisches System sein, also eine Kombination aus 4 Alpers, Sascha; Pilipchuk, Roman; Oberweis, Andreas; Reussner, Ralf (2018): Iden- Hard- und Software. tifying Needs for a Holistic Modelling Approach to Privacy Aspects in Enterprise Soft- 3 Alpers, Sascha; Betz, Stefanie; Fritsch, Andreas; Oberweis, Andreas; Schiefer, Gun- ware Systems. In: Proceedings of the 4th International Conference on Information ther; Wagner, Manuela (2018): Citizen Empowerment by a Technical Approach for Systems Security and Privacy. 4th International Conference on Information Systems Privacy Enforcement. In: Proceedings of the 8th International Conference on Cloud Security and Privacy. Funchal, Madeira, Portugal, 22.01.2018-24.01.2018: SCITEPRESS – Computing and Services Science. 8th International Conference on Cloud Computing Science and Technology Publications, S. 74–82. and Services Science. Funchal, Madeira, Portugal, 3/19/2018 - 3/21/2018: SCITEPRESS -
PRIVATHEIT UND DATENSCHUTZ 19 IT-Industrie, Forschung, Verwaltung und Zivilgesellschaft als Treiber neuer Produktkonzepte Ein wichtiger Beitrag des Digital Autonomy Hubs und weiterer Projekte ist es, die Akteursgruppen untereinander sowie mit den Diensteanbietern zu vernetzen und frühzei- tig Anforderungen und Befürchtungen der Nutzenden in Datenschutz-Grundverordnung den Produktentstehungsprozess einzubeziehen. So können (DSGVO) im Optimalfall aus Prinzipien eines reinen ‚Privacy-by-de- Seit 2018 ist die Datenschutz-Grund- sign‘-Ansatzes umfassendere ‚Sovereignty-by-design‘-Me- verordnung (Abkürzung: DSGVO, engl.: thoden partizipativ entwickelt und erprobt werden. GDPR) in Kraft. Sie regelt die Verar- beitung personenbezogener Daten in Deutschland und allen anderen Mitgliedstaaten der Europäischen Union. vollständig selbstbestimmte Nutzung gewährleistet. Einige Anbieter bedienen sich manipulativer Mechanismen – so genannter ‚Dark Patterns‘ – um Nutzer·innen unbewusst zu einem gewünschten Verhalten zu motivieren. Ein bekanntes Beispiel ist die Erzeugung eines gefühlten Termindrucks durch den Anschein einer Verknappung („x Personen sehen sich das Hotelzimmer auch gerade an“). Luise Kranich, Zuständigkeiten und Gestaltungsspielräume FZI Forschungszentrum Informatik © privat Erst wenn die ersten drei Fragen in Abbildung 1 mit „Nein“ beantwortet wurden und dennoch ein Wunsch zur Nutzung besteht, greift Selbstdatenschutz im engeren Sinne. Zur Luise Kranich leitet am FZI Lösung können verschiedene Akteure tätig werden. Forschungszentrum Informatik die Berliner Außenstelle und D: Verantwortlichkeiten beim Umgang mit Schwachstellen den Forschungsbereich „Inno- Frage: Wer initiiert systemische Anpassungen, um höhere vation, Strategie und Transfer“. Datensouveränität zu erreichen? Mit ihrem Team forscht sie an Drei Akteursgruppen können die aus ihrer Sicht notwendi- technologischen, ökonomi- gen Anpassungen maßgeblich treiben: Nutzer·innen durch schen und gesellschaftlichen vorgesehene oder nicht vorgesehene Anpassungen, staat- Fragen der Digitalisierung und liche Initiativen zur datenschutzförderlichen Gesetzgebung darüber, wie Smart Data, Künst- und Rechtsprechung und die Anbieter technischer Selbstda- liche Intelligenz und digitale tenschutzlösungen durch ergänzende Software wie Wer- Plattformen sinnstiftend und beblocker, die bspw. den Datenfluss zwischen dem Endgerät unter Wahrung der digitalen der Nutzer·innen und dem Online-Dienst überwachen und Souveränität eingesetzt werden steuern. können.
20 PRIVATHEIT UND DATENSCHUTZ Innovative Einblicke: DATENSPENDE Durch die selbstbestimmte Spende der eige- die Wirkweise von Algorithmen, Datenver- nen Datensätze wird nicht nur ein wichtiger arbeitungsmechanismen und andere sonst Beitrag zur wissenschaftlichen Forschung verborgene Auswirkungen ihres digitalen geleistet, auch für Nutzer·innen werden mit Handelns erstmals nachvollziehbar gemacht. innovativen Analyse- und Darstellungsformen WERTERADAR – Gesundheitsdaten souverän spenden Webseite https://werteradar.org/ Datenspende im Projekt as interaktive System soll es D Vorhaben Das Ziel des interdisziplinären Patient·innen erlauben, über die Vorhabens ist es, die Weitergabe Weitergabe ihrer persönlichen personenbezogener Gesundheits- Daten zu reflektieren. Innerhalb daten neu zu gestalten. Damit soll dieses Reflexionsprozesses werden Patient·innen das Spannungsfeld individuelle Datenschutzbedürfnis- zwischen dem Schutz der eigenen se berücksichtigt, um dem Schut- Privatsphäre einerseits und der zinteresse des Einzelnen durch Bereitstellung von Daten für eine entsprechende Vermittlungsansät- verbesserte medizinische Ver- ze gerecht zu werden. sorgung andererseits vor Augen Partner Freie Universität Berlin, Fern- geführt werden. Universität in Hagen, Fraunhofer AISEC, Charité – Universitätsmedi- Zielgruppe Nutzer·innen (Patient·innen und zin Berlin, HRTBT Medical Solutions Forscher·innen) im medizinischen GmbH Kontext
INNOVATIVE EINBLICKE 21 DATASKOP – Was passiert mit meinen Daten? Webseite https://dataskop.net/ Datenspende im Projekt Datenspenden haben sich als sinn- Vorhaben DataSkop ist eine Datenspende- volle Methode etabliert, um die plattform, mit deren Hilfe algo- Funktionsweise algorithmischer rithmische Entscheidunssysteme Systeme zu untersuchen – auch untersucht werden können. Durch ohne direkten Zugang zu ihnen zu den Einblick in diese Systeme wer- haben. Nutzer·innen können indivi- den Menschen befähigt, informiert duell ihre Daten spenden. Dadurch mit ihren Daten umzugehen, algo- ist es möglich zu verstehen, wie die rithmische Strukturen zu erkennen Systeme Empfehlungen, Bewertun- und diese in ihren Grundzügen zu gen und Entscheidungen berech- verstehen. nen. Zielgruppe Nutzer·innen generell; Forscher·in- Partner lgorithmWatch, European New A nen, Journalist·innen, (Medien-) School of Digital Studies, Fach- Pädaog·innen sowie die breite hochschule Potsdam, mediale Öffentlichkeit. pfade – Verein für Medienbildung, Universität Paderborn Um selbst mehr darüber zu erfahren, wie Unternehmen Daten verarbeiten, würden 43 Prozent der Befragten ihre Daten spenden. JA, HABE ICH BEREITS GEMACHT - 18,2 % NEIN - 22,5 % JA, HABE ICH ABER NOCH NICHT GEMACHT - ICH BIN UNENT- 24,4 % SCHLOSSEN - 35 % Basis: alle Befragten (n = 2000). Angaben in Prozent. Frage Q11: Würden Sie pseudo- mehr darüber zu erfahren, wie Ihre persönlichen Daten dabei gesammelt, verarbei- nymisierte oder anonymisierte Daten über Ihr digitales Nutzungsverhalten (etwa tet und weitergegeben werden? © Ipsos | Digital Autonomy Hub auf Webseiten oder in Apps) für Forschungszwecke zur Verfügung stellen, um selbst
22 PRIVATHEIT UND DATENSCHUTZ Governance von Datenschutz Interview mit Murat Karaboga Knapp die Hälfte der Befragten für größere nationale Spielräume hen. Nur regulatorische Vorschrif- hält in unserer repräsentativen eingesetzt hat. ten, die auch durchgesetzt werden, Umfrage die aktuell geltenden Grundsätzlich halte ich die DSGVO schaffen eine Lösung in der Breite. Gesetze zum Datenschutz für nicht für ein aus Datenschutzperspek- Aktuell gibt es drei politische Vor- ausreichend. Macht die DSGVO tive sinnvolles Gesetz, das aber stöße: zum einen die stagnierende Ihrer Meinung nach genügend Vor- vielmehr einen ersten wichtigen Überarbeitung der ePrivacy-RL schriften für den Datenschutz? Schritt darstellt, auf den weitere zur ePrivacy-VO. Außerdem die folgen müssen. Schließlich regelt EU-KI-Regulierung, die gewisser- Murat Karaboga: Die DSGVO hat die Verordnung vor allem das maßen als Ausfluss aus der DSGVO ein paar Innovationen hervor- Grundsätzliche in Bezug auf den für den KI-Bereich gelesen werden gebracht, bestehende Rechte Datenschutz. Spannend wird es kann, aber auch darüber hinaus- teilweise spezifiziert und sie somit aber erst dann, wenn einzelne geht. Schließlich kann auch der an die Erfordernisse moderner riskante Bereiche, in denen Daten Regulierungsvorschlag zum Digital Datenverarbeitungen angepasst. verarbeitet werden, näher in den Services Act der EU (im weiteren Sie hat aber nur unzureichend zur Fokus der Betrachtung rücken, Sinne auch der Digital Markets Act- Überwindung des europäischen etwa Social-Media-Plattformen der EU) als Ausfluss aus der DSGVO Datenschutz-Flickenteppichs oder KI-Anwendungen. Hier sind für den Bereich von Social-Me- beigetragen. Dies liegt daran, dass Spezialgesetze erforderlich, die dia-Plattformen gelesen werden. sich die Mehrzahl der EU-Mitglied- auf den Grundprinzipien der DSG- staaten angesichts des Lobbyismus VO beruhen und diese in die Praxis In unserer Studie stimmten 87 % ihrer nationalen Volkswirtschaften überführen. der Befragten der Aussage zu, dass Geräte und Apps stets die In unserer Umfrage haben 80 % datenschutzfreundlichsten Ein- 80 % der Befragten halten Daten- der Befragten den Eindruck, dass stellungen als Voreinstellungen schutz nur durch strengere Gesetze Anbieter von digitalen Geräten haben sollten. Halten Sie den für möglich. und Anwendungen nur durch Ansatz Privacy by Default (PbD) für strengere Gesetze zum daten- durchsetzbar? schutzfreundlichen Handeln gebracht werden können. Was sind Die Schwierigkeit bei dem Ansatz denn aktuelle politische Vorstöße des PbD ist die Definition des 80 % für einen besseren Datenschutz? Default-Status. Als der Ansatz mal entwickelt wurde, war ein Diesen Eindruck kann ich nur un- datensparsamer Default-Standard terstreichen, denn meist bedeuten Ausgangspunkt des Konzepts. mehr Daten auch mehr Einnahmen Basierend auf den datensparsams- für die Anbieter. Der Wettbewerbs- ten Einstellungen eines Dienstes druck erschwert ethische Daten- sollten Nutzer·innen selbständig verarbeitungen, denn wer nicht weitere Datennutzungen freigeben mitzieht, droht wirtschaftlich ins können, ohne dass sie dazu ge- Hintertreffen zu geraten. Öffent- zwungen oder ‚genudget‘ werden. Basis: alle Befragten (n = 2000). Darstellung der Top 2. Angaben in Prozent. Frage Q19: Inwiefern stimmen Sie den licher Aufschrei ist relevant, um Die Erstellung eines Profils bei ei- folgenden Aussagen zu? Anbieter·innen von digitalen Geräten bestimmte fragwürdige Verarbei- nem Social-Media-Diensteanbieter und Anwendungen können nur durch strengere Gesetze zum datenschutzfreundlichen Handeln gebracht werden. tungspraktiken zu kritisieren, kann sollte beispielsweise nicht dazu © Ipsos | Digital Autonomy Hub aber immer nur punktuell gesche- führen, dass die Profil-Einstellun-
PRIVATHEIT UND DATENSCHUTZ 23 ePrivacy-Richtlinie und -Verordnung: Die ePrivacy-Richtlinie (ePrivay-RL) regelt den Datenschutz in der digitalen Kommunikation in der Europäischen Union. Es wird darüber verhan- gen von vornherein auf öffentlich delt, sie durch eine ePrivacy-Verordnung (ePri- gesetzt sind. Dieses Verständnis vacy-VO) zu ersetzen. Anders als eine Richtlinie wurde so auch von der Daten- gilt eine Verordnung verbindlich und unmittelbar schutz-Forschungscommunity in den Mitgliedsstaaten der Europäischen Union. geteilt und weiterentwickelt. Wie hat sich die Definition von PbD dann verändert? Nichtsdestotrotz haben sich viele ten DSGVO-Vorgaben im Hinblick Während der Verhandlungen zur Diensteanbieter im Laufe der auf verschiedene Datenverarbei- DSGVO demonstrierten datenver- Jahre angesichts der öffentlichen tungskontexte. Dies könnte ein arbeitende Unternehmen stark ge- Proteste gegen weitgehende guter Anknüpfungspunkt sein. Aber gen ein derartiges PbD-Verständ- Datenverarbeitungen zuneh- auch die Zivilgesellschaft und Wis- nis. Das zentrale Argument lautete, mend datenschutzfreundlicher senschaftscommunity entwickeln dass Betroffene im Rahmen der aufgestellt. Die Einrichtung eines laufend sinnvolle Vorschläge, die Nutzung eines Dienstes selbst Social-Media-Profils z. B. führt bei stärker beachtet werden sollten. festlegen sollten, was Default vielen Diensten inzwischen nicht bedeutet. Der Default-Standard mehr zu einer automatischen Ver- sollte also an den Nutzungszweck öffentlichung aller Inhalte. Dies ist gekoppelt werden, der wiederum sehr zu begrüßen. Diese Handlun- von den datenverarbeitenden gen sind jedoch meist „good will“ Stellen festgelegt wird. Dieses Ver- und keine Verpflichtung. Hier wäre ständnis hat dann auch Eingang in eine stärkere gesetzliche Definiti- die DSGVO gefunden. Als Default on des Default-Standards sehr zu gilt, wozu Betroffene eingewilligt begrüßen. haben bzw. was der rechtmäßige Zweck der Verarbeitung ist. Somit Welche politischen und rechtli- können selbst sehr weitgehende chen Möglichkeiten wären außer- Datenverarbeitungen als konform dem denkbar? Murat Karaboga, mit PbD definiert werden. Fraunhofer Institut für System- und Innovati- Die Technologie- und Dienste-Ent- onsforschung ISI / Forum Fast 9 von 10 Personen wicklung bleibt nicht stehen. Neue Privatheit sprechen sich für Privacy by Angebote und die zunehmende © Franz Warmhof Fraun- hofer ISI Default aus. Ausstattung vieler Lebensberei- che des Menschen mit digitaler Sensorik, zum Beispiel durch Murat Karaboga ist Politikwis- Smart Wearables und Smart-ho- senschaftler und arbeitet seit me-Geräte, schaffen immer wieder 2014 am Fraunhofer-Institut neue Herausforderungen für den für System- und Innovations- Datenschutz. Da müssen EU- und forschung ISI in Karlsruhe. In nationale Gesetzgeber mithalten seiner Forschung untersucht er, können. Wichtig wäre es, neben wie neue Technologien ihren den oben genannten Gesetzes- Weg in die Gesellschaft finden initiativen stets auch weitere können, ohne negative Ne- risikoadäquate Regulierungen beneffekte mit sich zu bringen. voranzutreiben, wann immer dies Seiner kürzlich abgeschlosse- erforderlich ist. Der Europäische nen Promotion behandelt die Basis: alle Befragten (n = 2000). Darstellung der Top 2. Datenschutzausschuss veröffent- Entstehung der DSGVO unter Angaben in Prozent. Frage Q22: Inwiefern stimmen Sie licht in regelmäßigen Abständen Berücksichtigung der Daten- der folgenden Aussagen zu? Geräte und Apps sollten immer die datenschutzfreundlichsten Einstellungen als Empfehlungen zur Operationalisie- schutzwahrnehmungen der Voreinstellungen haben. © Ipsos | Digital Autonomy Hub rung der vergleichsweise abstrak- beteiligten Akteure.
24 PRIVATHEIT UND DATENSCHUTZ Tipps zum Selbstdatenschutz Beitrag von Bettina Müller Mit Selbstdatenschutz sind Maßnahmen gemeint, die ich treffe, um meine informationelle Selbstbestimmung zu sichern. Ich will wissen und kontrollieren, wer welche per- sönlichen Daten wann, wo und zu welchem Zweck erhebt, nutzt oder weitergibt. Dieses Grundrecht wird bei fast jeder Aktivität in der digitalen Welt angegriffen. Nicht nur krimi- nellen Attacken – durch Viren, Hoax, Phishing etc. – bin ich ausgesetzt. Auch Anbieter greifen im breiten Stil auf meine Die Befragten treffen verschiedene Daten zu, sammeln Informationen über mein Verhalten, Maßnahmen, um ihre Daten zu schützen. meine Beziehungen, aber auch meine Kontaktpersonen in der digitalen Welt. Kurz und kompakt folgen nun einige Tipps und Strategien zur eigenen Anwendung: Software: · Cloudsoftware, Online-PDF-Tools und Online-Speicher vermeiden · quelloffene Software verwenden · Funktionen reduzieren, z. B. PDF-Reader verwenden, die – nur die Anzeige von Dokumenten ermöglichen Internet: · unerwünschte Seiten in der hosts-Datei nach 0.0.0.0 oder 127.0.0.1 bzw. IP-6-Äquivalenten „umleiten“; zu Hause einen eigenen Proxy (es reicht ein Raspi) einsetzen · neutrale DNS-Server nutzen · Internetzugang für ausschließlich im Heimnetz genutzte Geräte (z. B. Drucker) im Router blockieren und Drucker über IP, nicht über Webdienste, anbinden 64 % Ich verwende verschiedene Passwörter für verschiedene Dienste. 58 % I ch lösche Daten über meine Onlineaktivitäten (z. B. Browserver- E-Mail: läufe, Cookies). · „echte“ E-Mail-Adressen schützen durch „Weg- 48 % Ich vermeide bestimme Anbieter. werf-E-Mail-Adressen“ 39 % I ch lehne bei Cookie-Bannern auf Internetseiten die Cookies zu Marketingzwecken ab, inklusive jener, die sich unter dem Ab- · E-Mail-Client nutzen anstatt Webmail schnitt ‚Berechtigtes Interesse‘ befinden. · keine Dienste nutzen, die Adressbücher in der Cloud 37 % I ch konfiguriere die Einstellungen bei meinen Geräten und Anwen- speichern, denn damit wandern auch die Adressen der dungen so, dass der Zugriff auf sensible Daten verwehrt wird. Mailpartner in die Cloud 26 % Ich nutze verschlüsselte Kommunikation. · E-Mail primär als reinen Text betrachten, dann fallen ge- 18 % Ich nutze ein VPN. fälschte Links schneller auf 12 % I ch nutze datenschutzfreundliche Alternativen zu verbreiteten · keine Dateien/Bilder aus dem Internet nachladen (aus- Geräten und Anwendungen. schließlich Mailanhänge nutzen) Basis: Befragte, die Maßnahmen zum Schutz ihrer Daten umsetzen (n = 1960). Angaben in Prozent. Frage Q15: Welche Maßnahmen treffen Sie, um Ihre Daten zu schützen? © Ipsos | Digital Autonomy Hub
PRIVATHEIT UND DATENSCHUTZ 25 63 % der Befragten finden, dass Nutzer·innen selbst die · datenschutzfreundliche Provider verwenden · E-Mails mittels MIME oder OpenPGP verschlüsseln Verantwortung dafür tragen, · Beim Versenden von E-Mails an feste Gruppen keine lan- ihre Daten zu schützen. gen CC-Listen verwenden, sondern Mailinglisten anlegen, bei denen alle Teilnehmer eine eigene E-Mail erhalten Smartphone: Bettina Müller ist ein digitales · Funktionen wie Standort, Bluetooth und mobile Daten nur Urgestein: Bereits 1967 lernte anschalten, wenn diese wirklich genutzt werden sie im Informatikunterricht in · verschiedene Geräte nicht im Netz synchronisieren der Schule an einer Zuse Z23. · Smartphone rooten, ein alternatives Betriebssystem ver- Sie studierte Medizin (Appro- wenden, bation und Promotion), Mathe- ·V PN-Verbindung und Adblocker nutzen matik, Informatik und Medi- · freie App-Stores verwenden zinrecht (LL.M.). Seit 1987 ist ·P repaid-Karten aus Tauschbörsen verwenden sie im Netz unterwegs und seit · keine besonders vertraulichen Anwendungen auf dem 1995 Mitglied im Präsidiumsar- Smartphone nutzen (etwa hinsichtlich Gesundheit, Finan- beitskreis der GI. Die Ärztin und zen) ausgebildete Datenschutzbe- auftragte ist außerdem Mitglied Social Media: im BvD und im Chaos Computer ·M essenger nicht mit der Telefonnummer verbinden, son- Club. dern dezentrale, anonym nutzbare Messenger mit Pseudo- nymen verwenden ·k eine Cloudspeicher nutzen: Adressbücher, Favoriten, Pass- wörter etc. nicht zentral ablegen Surfen: ·d atenschutzfreundliche Suchmaschine verwenden · Skripte von Dritten5 unterbinden und ggf. in getrennter Browserumgebung temporär freigeben · datenschutzfreundliche Browser verwenden6 ·T racking und Werbung blockieren7 · d atenschutzfreundliche Browser bzw. mehrere Browser für verschiedene Zwecke und isolierte Container verwenden Eine gute Übersicht mit Tipps zur digitalen Selbstverteidi- gung findet sich außerdem unter digitalcourage.de! 5 https://de.wikipedia.org/wiki/NoScript 6 https://www.datenschutzexperte.de/blog/datenschutz-im-unternehmen/ browser-datenschutz-welcherbrowser-schuetzt-ihre-daten/ 7 https://de.wikipedia.org/wiki/UBlock_Origin
Sie können auch lesen