Mensch und Technik in Interaktion - Wie gelingt individuelle digitale Souveränität?
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
PRIVATHEIT UND DATENSCHUTZ 1
Mensch und Technik
in Interaktion
Wie gelingt individuelle
digitale Souveränität?EDITORIAL 3
Grußwort
welche Daten sammeln. Oder es entsteht ein digitaler
Assistent, der Jugendlichen durch verschiedene Micro-Ga-
mes spielerisch Datenschutz-Kompetenzen beibringt. In die
Entwicklung des Assistenten wurden Jugendliche miteinbe-
zogen.
UNSER ALLTAG, OB PRIVAT ODER BERUFLICH, wird immer di- Das ist wichtig, denn: Bei allen Innovationen muss der
gitaler. Egal, ob bei Online-Bestellungen, Videokonferenzen Mensch im Mittelpunkt stehen. Die Technikentwicklung
oder zuhause im Smart Home: In vielen Lebensbereichen muss potentielle Nutzerinnen und Nutzer von Anfang an
nutzen wir digitale Technologien. Dabei hinterlassen wir mit an Bord holen. Es gilt herauszufinden, wie sie ermutigt
zahlreiche Daten im Netz. Aber wissen wir auch immer, wem werden können, sich mit der Datenverwendung in digitalen
wir unsere Daten geben? Oder wozu sie genutzt werden? Technologien auseinanderzusetzen und wie diese für sie
Persönliche Daten weiterzugeben, ist nicht grundsätzlich verständlich gemacht werden kann. Die geförderten Projek-
falsch, das zeigt etwa die Corona-Warn-App. Aber oft sind te sind interdisziplinär und berücksichtigen technologische
wir uns gar nicht bewusst, was mit unseren Daten im Netz genauso wie juristische, ethische und sozialwissenschaft-
passiert. Oder wir sind aufgrund des Aufwands und der liche Erkenntnisse. Nur so findet eine Technik den Weg in
Komplexität entmutigt herauszufinden, wie wir bei der Da- unseren Alltag, die verantwortungsvoll mit unseren Daten
tenweitergabe mitreden können. umgeht und mit der wir souverän umgehen können.
Deshalb hat das Bundesministerium für Bildung und Diese Publikation präsentiert Ihnen die ganze Bandbreite
Forschung (BMBF) die Fördermaßnahme „Mensch-Tech- unserer Forschungsprojekte zu digitaler Souveränität. Ich
nik-Interaktion für digitale Souveränität (DISO)“ ins Leben wünsche Ihnen eine spannende und informative Lektüre!
gerufen. So fördert es Projekte, die Menschen dabei helfen,
selbstbestimmt und reflektiert mit ihren Daten und digi-
talen Technologien umzugehen. Kurz gesagt: Ihre digitale
Souveränität zu stärken.
Digitale Souveränität ist ein Querschnittsthema, das viele
Technologien und unterschiedliche Themen berührt.
Genauso vielfältig und unterschiedlich sind auch die
Themen der Projekte, die das BMBF mit DISO fördert. Zum
Beispiel wird eine Augmented-Reality-Anwendung für ein
Smart Home entwickelt, die Datenströme visualisiert. Sie
sehen mit eigenen Augen, welche Geräte im Smart Home
Prof. Dr. Veronika von Messling
Leiterin Abteilung „Lebenswissenschaften“
Bundesministerium für Bildung und Forschung4 Mensch und Technik in Interaktion WIE GELINGT INDIVIDUELLE DIGITALE SOUVERÄNITÄT? DIGITAL AUTONOMY HUB Impressumsangaben: November 2021 Veröffentlicht von Gesellschaft für Informatik e. V. Geschäftsstelle Berlin Spreepalais am Dom – Anna-Louisa-Karsch-Str. 2 – 10178 Berlin AW AlgorithmWatch gGmbh Linienstr. 13 – 10178 Berlin Kontakt Info@digitalautonomy.net Webseite www.digitalautonomy.net Redaktion (Gesellschaft für Informatik e. V.) Paula Böhme Cin Pietschmann Elisabeth Schauermann Inga Sell Umfrage Ipsos GmbH Korrektorat Carlos Gluschak Gestaltung Daniela Greven Illustration Julia Praschma Gefördert durch das Bundesministerium für Bildung und Forschung
EDITORIAL 5
Inhalt
Möglichkeiten digitaler Kompetenz-
bildung im Berufsleben,
Beitrag von Alexander Knoth 34
„Souveräne Techniknutzung in der
nachberuflichen Lebensphase“,
EDITORIAL Interview mit Dr. Janina Stiel 37
Grußwort 3 Innovative Einblicke: Digitale Assistenten 40
Vorwort 6 PANDERAM 40
Methodensteckbrief 7 DigS-Gov 41
ViCon 41
1/ 4/
GESAMTSCHAU: SECHS PERSPEKTIVEN AUF TECHNIKGESTALTUNG 40
INDIVIDUELLE DIGITALE SOUVERÄNITÄT 8
„Chancen der menschenzentrierten
2/ Technikforschung“,
PRIVATHEIT UND DATENSCHUTZ 12 Interview mit Prof. Dr. Claudia Müller-Birn 40
„Verantwortung von und ethische
„Privatheit und damit verbundene Sorgen“, Grundsätze für Entwickler·innen“,
Interview mit Prof. Dr. Sabine Trepte 12 Interview mit Alexander von Gernler 45
„Datenschutz stört meine Arbeit“, Innovative Einblicke: Interaktive Visualisierung 48
Beitrag von M1$c 15 SIMPORT 48
„Von unterstellter Ignoranz und InviDas 49
systemischer Hilflosigkeit – Selbstdaten- UsableSec@Home 49
schutz zwischen Theorie und Praxis“, „Die Wirtschaftlichkeit individueller
Beitrag von Luise Kranich 17 digitaler Souveränität“,
Innovative Einblicke: Datenspende 12 Interview mit Dr. Marija Radić 50
WerteRadar 12 „In der Praxis: Mensch-Technik-Interaktion
DataSkop 13 für Gesundheit und Selbstbestimmung“,
„Governance von Datenschutz“, Interview mit Marie Kochsiek 52
Interview mit Murat Karaboga 22
„Tipps zum Selbstdatenschutz“,
Beitrag von Bettina Müller 24
3/
DIGITALE KOMPETENZEN 26
„Zwischen Autonomie und Schutzbedarf –
Kinder in einer von digitalen Medien
geprägten Welt“,
Beitrag von Jutta Croll, Dr. Jan-Christoph
Heilinger und Prof. Dr. Saskia Nagel 27
Innovative Einblicke: Gamification 30
A-DigiKomp 30
ePA-Coach 31
„Junge Generationen zwischen sozialer
Teilhabe und Datenschutz“,
Interview mit Dr. Johanna Schäwel 326 EDITORIAL
Vorwort
Stimmen aus dem Beirat des Digital Autonomy Hubs
reflektieren unseren transdisziplinären Ansatz bereits in
der Gesamtschau und machen hoffentlich Lust auf einen
tieferen Einstieg in die Lektüre. Im Kapitel „Privatheit und
Datenschutz“ gehen wir auf Sorgen und Risiken für die
Privatsphäre, aber auch auf individuelle und gesellschaft-
Über 70 % der Menschen in Deutschland sind besorgt um liche Möglichkeiten für einen mündigen Umgang mit Daten
ihre Daten bei der Nutzung digitaler Dienste und über 90 % ein. Daran anschließend beleuchten wir im Kapitel „Digitale
bemühen sich zumindest hin und wieder um Datenschutz in Kompetenzen“ die unterschiedlichen Bedarfe und Mög-
der alltäglichen Nutzung von Diensten und Geräten – Da- lichkeiten für den Kompetenzaufbau und den souveränen
tenmündigkeit in der Techniknutzung ist ein relevantes und Umgang mit Technologie in jedem Alter. Schließlich stellen
herausforderndes Thema. wir im Kapitel „Technologieentwicklung“ Erfolgsfaktoren für
eine Steigerung der individuellen digitalen Souveränität vor
Das Kompetenzzentrum „Digital Autonomy Hub – Technik und zeigen innovative Ideen für Mensch-Technik-Interakti-
souverän nutzen“ verfolgt das Ziel, allen Menschen einen onen. Im Format „Innovative Einblicke“ stellen wir die zehn
reflektierten und selbstbestimmten Umgang mit Technolo- Forschungsvorhaben des Digital Autonomy Hubs vor, die im
gie zu ermöglichen. Die vom Bundesministerium für Bildung Programm „Mensch-Technik-Interaktion für digitale Souverä-
und Forschung (BMBF) im Forschungsprogramm „Mitein- nität“ gefördert werden.
ander durch Innovation“ geförderten Projekte, die wir seit
2020 in ihrer angewandten Forschung begleiten, entwickeln Wir hoffen, Ihnen mit der vorliegenden Publikation einen
innovative nutzerzentrierte Lösungen, um Menschen mehr Einstieg in den Themenkomplex rund um individuelle
Wissen und bessere Handhabe über ihr digitales Leben und digitale Souveränität in der Techniknutzung zu bieten und
ihre persönlichen Daten zu geben. Möglichkeiten für Innovationen aufzuzeigen. Das Team
des Digital Autonomy Hubs wünscht Ihnen viel Freude und
Vor diesem Hintergrund führten wir im Frühjahr 2021 mit spannende Einsichten beim Lesen.
dem Forschungsinstitut Ipsos eine repräsentative Umfrage
durch, in der wir Menschen nach ihren persönlichen Einstel-
lungen, Sorgen und Hoffnungen in der alltäglichen Technik-
nutzung befragten. In dieser Publikation präsentieren wir
die Ergebnisse und ordnen sie mithilfe von Expert·innen ein.
Mit Perspektiven aus Informatik, Pädagogik, Ethik, Recht
und Wirtschaftswissenschaften tragen wir der Breite unserer
Fragestellungen in dieser Publikation Rechnung.
Elisabeth Schauermann
Projektleiterin Digital Autonomy Hub
Gesellschaft für Informatik e. V.EDITORIAL 7
Methoden-
BEFRAGUNGSZEITRAUM UND ANZAHL DER
BEFRAGTEN
Die Befragung wurde im März 2021 durchgeführt. Für die
steckbrief
finale Auswertung wurden die Daten von insgesamt 2000
Fragebögen verwendet.
EINORDUNG
Durch die Verwendung von CAWI schließt die Stichprobe
ausschließlich Proband·innen ein, die Zugang zu einem
METHODIK Computer mit Internetverbindung haben und über ein
Das Marktforschungsunternehmen Ipsos wurde beauftragt, Grundverständnis der Computernutzung verfügen.
mit quantitativen Methoden den Status quo im Hinblick auf Die qualitativen Beiträge von Expert·innen dienen der
Techniknutzung, digitale Kompetenzen, Datenschutzwis- Einordnung der Umfrageergebnisse und erlauben eine
sen und -maßnahmen sowie Informationsverhalten in der Betrachtung von Fragestellungen und Zusammenhängen,
deutschen Bevölkerung zu erforschen. Ebenso Teil dieser die in einer quantitativen Umfrage nicht abgebildet werden
Studie war die Erforschung passender Lösungsansätze, die können.
zur digitalen Ermächtigung beitragen können.
STUDIENTEILNEHMENDE
Deutschsprachige Allgemeinbevölkerung ab 18 Jahre
ERHEBUNGSMETHODE
Computer Assisted Web Interviews (CAWI)
STICHPROBE UND GEWICHTUNG
Proband·innen wurden durch das Ipsos Online Access Panel
geworben. Die Stichprobe wurde nach Alter, Geschlecht, Re-
gion und Bildungsstand quotiert und nach Alter, Geschlecht
und Region gewichtet.8 PRIVATHEIT UND DATENSCHUTZ 1/ G ESAMTSCHAU: SECHS PERSPEKTIVEN AUF DIGITALE SOUVERÄNITÄT Das Digital Autonomy Hub wird von Vertreter·innen der Netzwerkprojekte sowie von exter- nen Expert·innen beraten. Der Beirat begleitet die Aktivitäten des Hubs, um den Themen- komplex „individuelle digitale Souveränität“ für Politik, Wirtschaft, Zivilgesellschaft und Wissenschaft fundiert aufzubereiten. Um die verschiedenen Perspektiven der digitalen Souveränität zu beleuchten, setzt sich der Beirat transdisziplinär zusammen. Sechs Stim- men der Mitglieder haben wir aufgegriffen. Sie gehen darauf ein, welche Aspekte aus recht- licher, gesellschaftlicher, technischer, ökonomischer, ethischer und medienpädagogischer Perspektive relevant sind. RECHT „Echte Selbstbestimmung basiert auf individu- eller digitaler Souveränität: Menschen sollen in der Regel selbst über den Umgang mit ihren Daten bestimmen können – ganz ohne Beein- flussung, Druck oder das Gefühl der Ohnmacht angesichts der Komplexität von IT-Systemen. Aus Bequemlichkeit nehmen viele Fremdbe- stimmung in Kauf und ohne ausreichendes Verständnis und Risikobewusstsein sind Miss- brauch und Manipulation Tür und Tor geöffnet. Daher müssen die rechtlichen Vorgaben der Da- tenschutz-Grundverordnung ernst genommen werden. Insbesondere muss ‚Datenschutz by Default‘ der Startpunkt einer jeder Verarbeitung personenbezogener Daten sein.“ Marit Hansen, Landesbeauftragte für Datenschutz Schleswig-Holstein, ULD
PRIVATHEIT UND DATENSCHUTZ 9 GESELLSCHAFT „Während Konsument·innen in der freien Markt- wirtschaft die Wahl haben, wo welche persönli- chen Daten weitergegeben werden – bspw. kann man zwischen etlichen E-Commerce-Anbietern oder Messenger-Anwendungen auswählen oder auch auf deren Angebote ganz verzichten –, be- steht diese Wahlfreiheit im öffentlichen Sektor nicht. Um Leistungen in Anspruch nehmen zu können oder um rechtliche Anforderungen zu erfüllen, müssen Bürger·innen entsprechende Dienste nutzen und teilweise hochsensible Daten bereitstellen. Diese besondere Bezie- hung zwischen dem Staat und den Bürger·innen erfordert es, dass Maßnahmen zur Erhöhung der digitalen Souveränität besonders sorgfältig gestaltet werden.“ Prof. Dr. Moreen Heine, E-Government und Open Data Ecosystems, Universität zu Lübeck TECHNIK „In der Softwareentwicklung ist es wichtig, vertrauenswürdige Software gemeinsam mit den Nutzenden zu entwickeln und Assistenz- mechanismen für alle Typen von Nutzer·innen einzubauen. Ich vertraue einem System mehr, wenn die Software bereits automatisiert offen- legt, welche ihre internen Mechanismen sind und wie z. B. persönliche Daten verarbeitet oder Entscheidungen getroffen werden. Intelligente Assistenz bietet den jeweiligen Nutzer·innen an sie und deren Kontext angepasste Hilfestellun- gen. Durch die Nutzung von modellbasierten und generativen Entwicklungsmethoden kann man solche Mechanismen bereits automatisiert integrieren und erleichtert es so weniger tech- nikaffinen Menschen, selbstbestimmt Systeme zu nutzen.“ Dr. Judith Michael, Lehrstuhl für Software Engineering, RWTH Aachen
10 PRIVATHEIT UND DATENSCHUTZ WIRTSCHAFT „Digitale Geschäftsmodelle nutzen Daten als Schlüsselressource für die Wertschöpfung. Heute ‚bezahlen‘ Nutzer·innen daher häufig mit ihren Daten, ohne genau zu verstehen, was damit passiert oder was diese wert sind. Hier fehlt häufig noch die Transparenz seitens der Unternehmen. Damit sich das ändert, sind bei der Entwicklung digitaler Geschäftsmodelle auch die Perspektiven von Ökonomie, Infor- matik, Ethik und Recht einzubeziehen. Unsere Forschung zeigt, dass dieser interdisziplinäre Ansatz Unternehmen dabei unterstützt, wirt- schaftlich tragfähig zu agieren und die Souverä- nität von Nutzer·innen zu stärken.“ Dr. Marija Radić, Fraunhofer IMW MEDIENPÄDAGOGIK „Elektronische Datenverarbeitung verändert seit Jahrzehnten die Grundlagen unseres Zusammenlebens, Maschinenlernen hat diese Veränderungen beschleunigt. Solche technolo- gischen Bedingungen unserer Gesellschaft zu reflektieren und zu verstehen, muss ein zen- trales Ziel von Bildungsarbeit sein. Nur wenn Menschen in die Lage versetzt werden, sich diese Fragen zu erschließen, sie zu bewerten und echte Handlungsoptionen zu entwickeln, können wir demokratische Teilhabe stärken, um auch mit neuen Technologien eine gerechte und solidarische Gesellschaft zu schaffen.“ Robert Behrendt, medialepfade
PRIVATHEIT UND DATENSCHUTZ 11 ETHIK „Ethik sucht und prüft kraft praktischer Ver- nunft Kriterien und Ermöglichungsbedingungen ‚guten Lebens‘. Sie liefert eine Checkliste, nach der man die digitale Wirtschaft und Gesell- schaft verantwortlich ausgestalten kann: • Welche Gestaltungsoption wird allen am meisten nützen und am wenigsten schaden? (utilitaristischer Ansatz) • Welche Option respektiert die Rechte aller Beteiligten am besten? (Rechte-Ansatz) • Welche Option wird Menschen gleich oder doch fair behandeln? (Gerechtigkeitsansatz) • Welche Option eignet sich am besten für die gesamte Gesellschaft? (Gemeinwohlansatz) • Welche Option ermöglicht mir, als die Art von Person aufzutreten, die ich sein möchte? (Tugendethik-Ansatz)“ Prof. Dr. Wolfgang M. Schröder, Universität Würzburg
12 PRIVATHEIT UND DATENSCHUTZ
2/
PRIVATHEIT UND
DATENSCHUTZ
Sorgen um die eigene Privatsphäre sind in einer zunehmend digitalisierten Welt verbreitet,
eng verbunden hiermit sind Fragen zum Schutz der persönlichen Daten. Auf individueller
und gesellschaftlicher Ebene bestehen sowohl Möglichkeiten für den Datenschutz als auch
Hürden in der Umsetzung. In diesem Kapitel wird ein Blick auf Datenschutz und Privatheit im
Spannungsfeld von Theorie und Praxis geworfen.
Privatheit und damit verbun-
dene Sorgen Interview mit Prof.
Dr. Sabine Trepte
Zunächst eine grundlegende Frage: ren soll und Sie diesen Wunsch Wie hängt nun Privatheit mit Da-
Was ist Privatheit überhaupt? auch umsetzen können, dann tenmündigkeit in der Techniknut-
entspricht die Situation Ihren zung zusammen?
Prof. Dr. Sabine Trepte: Sie steigen Vorstellungen von Zugänglichkeit.
mit der schwierigsten Frage ein! Und wenn Sie beispielsweise mit Informationelle Selbstbestimmung
Ich gebe mein Bestes: Also, mir drei Freund·innen in Ihrer Küche oder Datenmündigkeit implizie-
gefällt die Idee von Privatheit als sitzen und plaudern und gern ren genau den Kern der gerade
bedürfnisorientierte Zugänglich- viel von sich berichten möchten, genannten Idee von Privatheit. Bei
keit. Privatheit fühlen Menschen dann entspricht dies ebenfalls der informationellen Selbstbe-
je nachdem, wie zugänglich sie Ihren Vorstellungen von Zugäng- stimmung geht es nämlich nicht
für andere sind und ob diese lichkeit. Beide Situationen ent- nur darum, wie viel oder was
Zugänglichkeit ihren Bedürfnis- sprechen einem Empfinden von Menschen von sich preisgeben,
sen in einer bestimmten Situa- Privatheit, obwohl Sie anderen sondern ob dies ihren Bedürfnis-
tion entspricht. Wenn Sie also Menschen in der einen Situation sen entspricht und ob es in einer
beispielsweise U-Bahn fahren, sehr wenig, in der anderen sehr bestimmten Situation angemessen
niemand etwas von Ihnen erfah- viel preisgeben. ist. Und hier fällt schon etwas auf:PRIVATHEIT UND DATENSCHUTZ 13
Die Beurteilung, ob die Verwen- sich nicht in alles hineindenken genen Daten besorgt ist. Das sind
dung von Daten den Bedürfnissen müssen. In diese Normen vertrau- zu viele, die sich Sorgen machen!
eines Menschen entspricht oder en zu können, ist genauso wichtig Wenn Menschen Sorgen haben,
angemessen ist, setzt voraus, dass wie die selbstbestimmte Entschei- dann deutet dies darauf hin, dass
sie überhaupt wissen, dass Ihre dung. ihnen Informationen fehlen, dass
Daten erhoben werden und was ihre Kontrollbedürfnisse noch
damit gemacht wird. Das ist heute In unserer repräsentativen Studie nicht ausreichend ernst genom-
bei den meisten Anwendungen geben rund 70 % der Befragten men oder wahrgenommen werden.
nicht der Fall. Manchmal ist das an, dass sie besorgt darüber sind, Die Sorgen der Menschen sind
ein echter Jammer, denn es wäre dass digitale Geräte und Anwen- gleichzeitig für uns ein wichtiger
gut, wenn die Menschen besser dungen Daten über sie sammeln Hinweis: Wir haben noch viel zu
informiert wären und informierte und verarbeiten. Nur wenige tun damit, für die informationelle
Entscheidungen über die Da- machen sich jedoch große Sorgen. Selbstbestimmung zu kämpfen.
tenverwendung treffen könnten. Deckt sich dieser Befund mit Ihren Zum Glück sind Wissenschaft-
Manchmal ist es aber auch gar Erfahrungen? ler·innen, Datenschützer·innen,
nicht erforderlich. An manchen Jurist·innen und viele andere Ex-
Stellen helfen soziale und regula- Ja, die meisten Studien über die pert·innen nach wie vor sehr aktiv
tive Normen weiter und schützen Sorgen zur Privatheit zeigen, dass dabei, das zu verbessern. Eigent-
Menschen. Normen regeln, dass die Mehrheit der Deutschen nach lich sollten wir das Internet nutzen
beispielsweise Internetnutzende wie vor um die Verwendung der ei- können, ohne uns große Sorgen im
Allgemeinen zu machen. Aber bitte
sorgen Sie sich weiter, wenn es um
Die Mehrheit der Befragten (73,2 %) ist besorgt, dass spezifische Anwendungen geht.
digitale Geräte und Anwendungen Daten über sie Zum Beispiel, wenn Sie sich bei ei-
sammeln. nem neuen Portal anmelden, bitte
machen Sie sich Sorgen! Das führt
JA, ETWAS: 51,7 %
nämlich dann dazu, dass Sie sich
informieren, die Meinung anderer
einholen und nachdenken.
Wie gehen Menschen mit Privat-
heit um? Wie können wir verste-
hen, dass einige Menschen gerne
NEIN, EHER NICHT: 20,5 %
DAS KANN ICH NICHT EINSCHÄTZEN: 2,9 %
und freiwillig ihre Laufzeiten oder
Fotos online teilen, sich aber
dennoch Sorgen über ihre Daten-
JA, SEHR: 21,5 %
spuren machen?
NEIN, GAR NICHT: 3,5 %
Sorgen sind ein Gefühl der Unsi-
cherheit, der Zurückhaltung, bei
stärkeren Sorgen können sie in
Angst münden. Sorgen sind aus
psychologischer Perspektive ein
wichtiger Indikator für uns Men-
schen, dass wir mehr Informatio-
nen benötigen, dass wir nicht Ruhe
geben können, dass wir uns mit
anderen austauschen möchten.
Basis: alle Befragten (n = 2000). Darstellung der Top 2 und Bottom 2. Angaben in Sorgen sind ein Ausrufezeichen
Prozent. Frage Q5: Sind sie besorgt darüber, dass digitale Geräte und Anwendungen
(z. B. Apps, Webseiten, Smartphones) Daten über Sie sammeln und verarbeiten?
auf unserer To-Do-Liste. Bedeutet
© Ipsos | Digital Autonomy Hub dieses Ausrufezeichen, dass wir14 PRIVATHEIT UND DATENSCHUTZ
alle damit assoziierten Aktivitäten Wert der Privatheit ändern sich angepasst. Zweitens sind immer
einstellen? Auf keinen Fall! Sorge nicht über die Zeit bzw. die Ver- mehr Menschen anonym über
bedeutet erst einmal, dass wir änderungen sind marginal. Der den Onion-Browser im Internet
wachsam sein müssen und nicht Umgang mit Privatheit bei der unterwegs, um keine Spuren der
unbedingt, dass wir das Verhalten Nutzung einzelner Dienste – bei- Online-Recherche zu hinterlassen
einstellen. spielsweise ob Menschen ihren und so die kommerzielle Verwen-
Klarnamen angeben, ob und wie dung der eigenen Verhaltensda-
Hat sich der Umgang mit Privatheit sie die Datenschutzeinstellungen ten zu vermeiden. Drittens ver-
durch die verstärkte Techniknut- ändern oder umgehen – hat sich schleiern Menschen gern Aspekte
zung in den vergangenen zehn, jedoch verändert. Die meisten sind ihrer Identität, nutzen also keine
zwanzig Jahren gewandelt? gut informiert und nutzen drei Klarnamen, wenn sie im Internet
Formen des Datenschutzes: Erstens unterwegs sind.
Das Bedürfnis nach Privatheit, werden die Datenschutzeinstellun-
Privatheitssorgen und auch der gen in den Diensten selbst aktiv
Die Besorgnis um die eigene Daten ist
unabhängig von der Nutzungshäufigkeit
digitaler Anwendungen und Produkte.
Prof. Dr. Sabine Trepte,
Universität Hohenheim
© privat
Sabine Trepte ist Professorin
für Kommunikationswissen-
schaft, insbesondere Medien-
psychologie an der Universität
Hohenheim in Stuttgart. Ihre
Forschungsschwerpunkte lie-
gen im Bereich Privatheit und
soziale Medien. Besonders inte-
ressiert sie die psychologische
Perspektive auf den Wandel
der Privatheit und wie Medien
VIELNUTZER·INNEN: MÄSSIG-NUTZER· WENIG-NUTZER· diesen Wandel beeinflussen.
75,6 % BESORGT, INNEN: 75 % BESORGT, INNEN: 75,3 %
24,4 % NICHT BE- 25 % NICHT BESORGT BESORGT, 24,7 %
SORGT NICHT BESORGT
Basis: alle Befragten (n = 2000). Darstellung der Top 2 und Bottom 2. Angaben in
Prozent. Frage Q5: Sind sie besorgt darüber, dass digitale Geräte und Anwendungen
(z. B. Apps, Webseiten, Smartphones) Daten über Sie sammeln und verarbeiten?
© Ipsos | Digital Autonomy HubPRIVATHEIT UND DATENSCHUTZ 15
Datenschutz stört meine
Arbeit Beitrag von M1$c
Welche Daten geben wir von uns preis? Und wer interessiert sich über-
haupt für unsere Daten? Oft sind die Opfer von Cyberangriffen keine
berühmten Persönlichkeiten, sondern arglose Personen, deren Daten
besonders einfach zugänglich sind.
Hallo, ich bin M1$c und bezeichne mich selbst als Data-Hun- 87,7 % der Befragten be-
ter. Ich beschaffe, verarbeite, und verkaufe persönliche Da- fürchten negative Folgen
ten. Bei meinen Aufträgen bin ich nicht wählerisch: Hauptsa-
che, es bringt Geld ein. durch die Speicherung,
Einer der einfachsten Jobs ist es, ein Profil über eine Person
anzulegen. Viele Online-Dienste ermöglichen es mir, gebün-
Verarbeitung und Nut-
delt an alle öffentlich verfügbaren Informationen über eine zung ihrer persönlichen
Person zu kommen. Praktischerweise haben die Leute bei
fast allen sozialen Medien ein Profilbild. So sehe ich gleich,
Daten durch digitale
dass ich die richtige Person gefunden habe. Xing und Linke- Technologien.I
dIn verraten mir dann nicht nur, wo die Leute schon überall
gearbeitet haben, sondern auch den aktuellen Wohnort. Mit
ein bisschen Social-Engineering bekomme ich fast immer
auch die Adresse heraus. Dafür reicht ein Anruf bei der Wertgegenstände in der Wohnung stehen. Oder ganz
aktuellen Arbeitsstelle; ich gebe mich als Sekretär·in der generell, was für Interessen die Person hat.
vorherigen Firma aus und sage, wir hätten noch Unterlagen, Das sind alles sehr einfache Möglichkeiten – ich selbst
die wir nachschicken müssen. Solange man sehr nett ist habe nur ein paar Tage gebraucht, um sie mir beizubringen.
und unbeholfen tut, bekommt man, was man will. Die Leute Dass der Aufwand dafür gering ist, merkt man auch an den
freuen sich oft sogar, mir zu helfen. vielen Angriffen, die täglich stattfinden. Spear-Phishing ist
Sich dumm stellen, funktioniert meist auch sehr gut, um die eine weitere einfache Möglichkeit, an Daten zu kommen.
Zwei-Faktor-Authentifizierung zu umgehen: „Ich kann mich Mit sehr einfachen HTML-Programmier-Skills baut man
nicht mehr einloggen ... ich weiß nicht, welchen Knopf ich da eine bekannte Webseite nach. Muss nicht perfekt sein,
drücken muss.“ Das zur Umgehung benötigte Geburtsdatum muss meine Opfer ja nur dazu bewegen, ihre Daten in mein
geben viele bereitwillig online an, etwa wenn sie stolz ein Formular einzugeben. E-Mail, Passwort, Sicherheitsabfra-
Bild ihres Geburtstagskuchens twittern. Manchmal muss ich ge, vielleicht noch die IBAN – und schon kann es losgehen.
nicht einmal anrufen, um die notwendigen Informationen zu Auch Gewinnspiel-Formulare eignen sich super, um schnell
bekommen. Die Smartphones, die wir mit uns herumtragen, an viele E-Mail-Adressen zu kommen. Allein die Chance auf
speichern in jedem Bild den Standort, an dem es aufgenom- den Gewinn reicht, damit die Leute ihre Daten hergeben.
men wurde. So erfahre ich nicht nur, wo die Person wohnt, Ein halbes Jahr später verschicke ich dann Spam. Das ist zu
sondern auch, wo sie am liebsten essen geht, wo sie jeden viel Zeit, als dass sie noch nachvollziehen können, was die
Morgen auf dem Weg zur Arbeit vorbeikommt, und dass sie eigentliche Ursache für den Spam war.
gerade im Urlaub ist. Die vielen Bilder mit der Katze zeigen Eine Telefonnummer ist übrigens fabelhalft. Fast alle
mir außerdem, dass diese Person allein wohnt und welche Dienste erwarten heutzutage, dass man eine angibt. So
I Basis: alle Befragten (n = 2000). Darstellung derer, die mindestens eine negative
Folge auswählten. Frage Q7: Welche negativen Folgen befürchten Sie durch die Spei-
cherung, Verarbeitung und Nutzung Ihrer persönlichen Daten durch digitale Tech-
nologien? Bitte klicken Sie die Items nach empfundener Negativität geordnet an. 1 =
am negativsten, 2 = am zweitnegativsten, etc..© Ipsos | Digital Autonomy Hub16 PRIVATHEIT UND DATENSCHUTZ
Am meisten fürchten sich die Befragten vor der
Veröffentlichung von privaten Informationen.
DER STAAT ERHÄLT ZU VIEL
WISSEN UND MACHT
VERÖFFENTLICHUNG VON IN MEINER POLITISCHEN MEINUNG
PRIVATEN INFORMATIONEN MANIPULIERT ZU WERDEN
KEINE
SELBST NICHT ZU
WISSEN, WAS MIT MEINEN
DATEN PASSIERT
UNTERNEHMEN ERHALTEN IN MEINEM VERHALTEN MANIPULIERT ZU
ZU VIEL WISSEN UND MACHT WERDEN (Z. B. KAUFENTSCHEIDUNGEN)
Basis: Befragte, die negative Folgen sehen (n = 1755). Darstellung des Rang 1. Frage Sie die Items nach empfundener Negativität geordnet an. 1 = am negativsten, 2 = am
Q7: Welche negativen Folgen befürchten Sie durch die Speicherung, Verarbeitung zweitnegativsten etc..© Ipsos | Digital Autonomy Hub
und Nutzung Ihrer persönlichen Daten durch digitale Technologien? Bitte klicken
kann ich auch andere Accounts finden und weiß, dass sie Meine Berufsaussichten? Super! Daten sind gefragt und zu-
zur selben Person gehören. Die Nummer ist ja fast so ein- nehmend verfügbar durch diverse Online-Dienste. Was mir
deutig wie die Personalausweisnummer. die Arbeit jedoch erschwert, sind Menschen, die um meine
Am meisten Spaß an meinem Job macht mir allerdings die Tätigkeiten wissen und auf ihre Daten aufpassen.
Manipulation von Menschen. Wenn man es richtig macht,
verstehen sie nicht einmal, dass sie manipuliert wurden. Ab-
surd, aber die meisten Menschen fühlen sich gefeit vor poli- Sie haben doch nicht ernsthaft
tischer Manipulation. Schon klar, niemand will beeinflussbar erwartet, dass Sie hier persönliche
sein. Aber war es wirklich eine ganz eigene autonome Idee, Daten über M1$c finden, oder? Da-
nicht wählen zu gehen, um damit „ein Zeichen zu setzen“? tenschutz ist wichtig, das wissen
Oder habe ich die politische Meinung herausgefunden, sie Sie doch! Das Porträt wurde vom
für doof gehalten und absichtlich Beiträge angezeigt, die Lehrstuhl für Privatsphäre und
eine Nicht-Wahl nahelegen? Solche Beeinflussungen finden Sicherheit in Informationssyste-
tatsächlich täglich statt – und ich freue mich, wenn sie funk- men an der Universität Bamberg-
tionieren. geschrieben.PRIVATHEIT UND DATENSCHUTZ 17
Von unterstellter Ignoranz
und systemischer Hilflosigkeit:
Selbstdatenschutz zwischen
Theorie und Praxis Beitrag von
Luise Kranich
Selbstdatenschutz erfordert passende Rahmenbedingungen, geeignete
Werkzeuge und viel Eigeninitiative – Nutzen und Wirkung bleiben aber
häufig im Verborgenen. Ein (Er-)Klärungsversuch.
Selbstdatenschutz – was ist das eigentlich? den Selbstdatenschutz als vornehmlich aktive Selbsthilfe
Eine grundlegende Definition des Begriffs Selbstdatenschutz oder Selbstverteidigung, – auch dann, wenn sich „Personen
finden wir in der Zielsetzung des Digital Autonomy Hubs, der einem die Privatsphäre bedrohenden Umfeld gegenüberse-
u. a. Nutzer·innen dazu ermutigen und ermächtigen soll, sich hen und ihre eigenen Datenschutzpräferenzen durchsetzen
mit der eigenen Datensouveränität zu beschäftigen und ak- möchten“ 1. Gerade bei der Betrachtung möglicher Hürden
tiv zu werden. Eine engere Definition, bei der auch die tech- und Anreize wird deutlich, warum diese Unterscheidung
nischen, organisatorischen sowie rechtlichen Möglichkeiten relevant ist.
und Herausforderungen konkreter sichtbar werden, begreift
Die größte Barriere beim Schutz der eigenen Daten ist mangelnde Zeit,
sich durch Datenschutzeinstellungen zu klicken.
5,2 3,1 2,8 2,8 2,5 2,4 2,2
Ich weiß nicht, Ich habe sowieso Es gibt keine Ich verstehe Ich befürchte Der
welche Einstel- keine Kontrolle alternativen Datenschutz- berufliche/sozi- Wechsel zu
lungen ich ändern über meine Anwendungen, erklärungen ale Ausgrenzung, datenschutz-
Ich habe keine Zeit, mich muss und/oder Daten. bei denen der nicht. wenn ich Dienste freundliche-
durch Datenschutzeinstel- wo ich diese Datenschutz nicht nutze, bei ren Alterna-
lungen zu klicken. finde. besser ist. denen ich der tiven ist zu
Datenverarbei- umständlich.
tung zustimmen
muss, um sie zu
verwenden.
Basis: Befragte, die sich mit dem Schutz ihrer Daten mindestens etwas überfordert Daten im Alltag? Bitte ordnen Sie die folgenden Aussagen in eine Rangfolge. Bitte
fühlen (n = 1620). Darstellung der Rangmittelwerte von 7 (= Anzahl der Ränge) sub- klicken Sie die Items nach Erschwerungsgrad an: 1 = größte Hürde, 2 = zweitgrößte
trahiert. Frage Q18: Welche Dinge erschweren Ihnen den Schutz Ihrer persönlichen Hürde etc.. © Ipsos | Digital Autonomy Hub
1
Wagner, Manuela (2020): Datenökonomie und Selbstdatenschutz. Grenzen der Kom-
merzialisierung personenbezogener Daten. [1. Auflage]. Köln: Carl Heymanns Verlag
(Karlsruher Schriften zum Wettbewerbs- und Immaterialgüterrecht, Band 39).18 PRIVATHEIT UND DATENSCHUTZ
Weichenstellungen beim selbstbestimmten Umgang A: Grundsätzliche Entscheidung über Nutzung verschiede-
mit digitalen Diensten ner Produkte 2
Bei der Entscheidung zur selbstbestimmten, souveränen Frage: Möchte ich dieses Angebot (bspw. Messenger-App)
Nutzung digitaler Dienste stellen sich Fragen auf unter- nutzen?
schiedlichen Ebenen. Je nach Ausgestaltung des Diens- Die vermeintlich simple Abwägung zwischen Nutzen und
tes sind diese recht einfach zu beantworten oder bergen Risiko ist für Nutzende mit großer Unsicherheit verbun-
versteckte Hürden. Am Ende des Entscheidungsprozesses den: Das Risiko aus Datenschutzsicht ist meist nicht ohne
stehen im Wesentlichen drei Szenarien: Nutzung, Askese Weiteres abschätzbar und wird vielen Menschen frühestens
oder (aktiver) Selbstdatenschutz im engeren Sinne (s. o.). nach einem bekannt gewordenen Datenleck bewusst. Einen
Abbildung 1 zeigt die wichtigsten Weichenstellungen auf Dienst nicht zu nutzen (Abschirmung/Askese), ist dagegen
dem Weg zu einem dieser Szenarien. häufig mit hohen (sozialen) Kosten verbunden 3 – fehlen-
der Anschluss an ein soziales Netzwerk kann zu Isolation
führen, der Verzicht auf ein smartes Thermostat zu höheren
Heizkosten. Im beruflichen Kontext könnte die persönliche
Präferenz für oder gegen die Nutzung eines Dienstes sogar
durch Unternehmensvorgaben aufgehoben werden: Trotz
Weichenstellungen zwischen Nutzung, Askese DSGVO und strenger Auflagen im Beschäftigtendatenschutz
und Selbstdatenschutz (eigene Darstellung) fehlen in Geschäftsprozessmodellen häufig Privacy-Frage-
stellungen.4
B: Alternativprodukte
grund- Ist der Umgang mit
sätzliche Nut- meinen Daten für Frage: Gibt es funktional vergleichbare Produkte, die eine
zungsentschei- Nutzung
dung
mich akzeptabel? höhere Datensouveränität ermöglichen?
Bei einem Vergleich von Alternativen stellen sich Nutzer·in-
Nein
nen zwei wesentliche Herausforderungen: die Informations-
asymmetrie und die Kompatibilität im organisatorischen
sowie technischen Sinne.
Auch für technisch Versierte ist es schwer, an relevante
Ja
Gibt es
Alternativprodukte?
Informationen zu gelangen: Die Prüfung der Vertrauenswür-
digkeit der Anbieter sowie die Kompatibilität mit anderen
Lösungen ist häufig kaum abzuschätzen und zukünftige
Nein
Änderungen durch den Anbieter sind nicht vorherzusehen,
etwa der Umzug einer Smart-home-Verwaltungssoftware
von einer On-Premise-Lösung in die Cloud. Insbesondere bei
Ja
stark vernetzten Produkten, wie bspw. WLAN-Lautsprechern,
Kann ich problemlos Anpassung im
Anpassungen vor- vorgegebenen führt eine fehlende technische Interoperabilität häufig zu
nehmen? Rahmen Lock-In-Effekten, d. h. ein Wechsel zu anderen Anbietern ist
erschwert.
Nein
C: Anpassbarkeit
Frage: Kann ich mögliche Schwachstellen mit vertretbarem
Nein
Bin ich bereit, die
Ja Aufwand selbst beheben?
Askese Selbstdaten-
Hürden zu überwin-
schutz Auch wenn es der nutzenden Person gelingt, die Privatsphä-
den?
re-Einstellungen eines Dienstes an die eigenen Wünsche
anzupassen – bspw. durch aufwändige Neukonfiguration
der Cookie-Genehmigungen einer Webseite – ist noch keine
2
Ein ‚Produkt‘ kann hier ein rein digitales Produkt, z. B. eine App oder ein On- Science and Technology Publications, S. 589–595.
line-Dienst, oder aber ein cyberphysisches System sein, also eine Kombination aus 4
Alpers, Sascha; Pilipchuk, Roman; Oberweis, Andreas; Reussner, Ralf (2018): Iden-
Hard- und Software. tifying Needs for a Holistic Modelling Approach to Privacy Aspects in Enterprise Soft-
3
Alpers, Sascha; Betz, Stefanie; Fritsch, Andreas; Oberweis, Andreas; Schiefer, Gun- ware Systems. In: Proceedings of the 4th International Conference on Information
ther; Wagner, Manuela (2018): Citizen Empowerment by a Technical Approach for Systems Security and Privacy. 4th International Conference on Information Systems
Privacy Enforcement. In: Proceedings of the 8th International Conference on Cloud Security and Privacy. Funchal, Madeira, Portugal, 22.01.2018-24.01.2018: SCITEPRESS –
Computing and Services Science. 8th International Conference on Cloud Computing Science and Technology Publications, S. 74–82.
and Services Science. Funchal, Madeira, Portugal, 3/19/2018 - 3/21/2018: SCITEPRESS -PRIVATHEIT UND DATENSCHUTZ 19
IT-Industrie, Forschung, Verwaltung und Zivilgesellschaft als
Treiber neuer Produktkonzepte
Ein wichtiger Beitrag des Digital Autonomy Hubs und
weiterer Projekte ist es, die Akteursgruppen untereinander
sowie mit den Diensteanbietern zu vernetzen und frühzei-
tig Anforderungen und Befürchtungen der Nutzenden in
Datenschutz-Grundverordnung den Produktentstehungsprozess einzubeziehen. So können
(DSGVO) im Optimalfall aus Prinzipien eines reinen ‚Privacy-by-de-
Seit 2018 ist die Datenschutz-Grund- sign‘-Ansatzes umfassendere ‚Sovereignty-by-design‘-Me-
verordnung (Abkürzung: DSGVO, engl.: thoden partizipativ entwickelt und erprobt werden.
GDPR) in Kraft. Sie regelt die Verar-
beitung personenbezogener Daten in
Deutschland und allen anderen
Mitgliedstaaten der Europäischen
Union.
vollständig selbstbestimmte Nutzung gewährleistet. Einige
Anbieter bedienen sich manipulativer Mechanismen – so
genannter ‚Dark Patterns‘ – um Nutzer·innen unbewusst zu
einem gewünschten Verhalten zu motivieren. Ein bekanntes
Beispiel ist die Erzeugung eines gefühlten Termindrucks
durch den Anschein einer Verknappung („x Personen sehen
sich das Hotelzimmer auch gerade an“).
Luise Kranich,
Zuständigkeiten und Gestaltungsspielräume FZI Forschungszentrum Informatik
© privat
Erst wenn die ersten drei Fragen in Abbildung 1 mit „Nein“
beantwortet wurden und dennoch ein Wunsch zur Nutzung
besteht, greift Selbstdatenschutz im engeren Sinne. Zur Luise Kranich leitet am FZI
Lösung können verschiedene Akteure tätig werden. Forschungszentrum Informatik
die Berliner Außenstelle und
D: Verantwortlichkeiten beim Umgang mit Schwachstellen den Forschungsbereich „Inno-
Frage: Wer initiiert systemische Anpassungen, um höhere vation, Strategie und Transfer“.
Datensouveränität zu erreichen? Mit ihrem Team forscht sie an
Drei Akteursgruppen können die aus ihrer Sicht notwendi- technologischen, ökonomi-
gen Anpassungen maßgeblich treiben: Nutzer·innen durch schen und gesellschaftlichen
vorgesehene oder nicht vorgesehene Anpassungen, staat- Fragen der Digitalisierung und
liche Initiativen zur datenschutzförderlichen Gesetzgebung darüber, wie Smart Data, Künst-
und Rechtsprechung und die Anbieter technischer Selbstda- liche Intelligenz und digitale
tenschutzlösungen durch ergänzende Software wie Wer- Plattformen sinnstiftend und
beblocker, die bspw. den Datenfluss zwischen dem Endgerät unter Wahrung der digitalen
der Nutzer·innen und dem Online-Dienst überwachen und Souveränität eingesetzt werden
steuern. können.20 PRIVATHEIT UND DATENSCHUTZ
Innovative Einblicke:
DATENSPENDE
Durch die selbstbestimmte Spende der eige- die Wirkweise von Algorithmen, Datenver-
nen Datensätze wird nicht nur ein wichtiger arbeitungsmechanismen und andere sonst
Beitrag zur wissenschaftlichen Forschung verborgene Auswirkungen ihres digitalen
geleistet, auch für Nutzer·innen werden mit Handelns erstmals nachvollziehbar gemacht.
innovativen Analyse- und Darstellungsformen
WERTERADAR – Gesundheitsdaten
souverän spenden
Webseite https://werteradar.org/ Datenspende
im Projekt as interaktive System soll es
D
Vorhaben
Das Ziel des interdisziplinären Patient·innen erlauben, über die
Vorhabens ist es, die Weitergabe Weitergabe ihrer persönlichen
personenbezogener Gesundheits- Daten zu reflektieren. Innerhalb
daten neu zu gestalten. Damit soll dieses Reflexionsprozesses werden
Patient·innen das Spannungsfeld individuelle Datenschutzbedürfnis-
zwischen dem Schutz der eigenen se berücksichtigt, um dem Schut-
Privatsphäre einerseits und der zinteresse des Einzelnen durch
Bereitstellung von Daten für eine entsprechende Vermittlungsansät-
verbesserte medizinische Ver- ze gerecht zu werden.
sorgung andererseits vor Augen Partner Freie Universität Berlin, Fern-
geführt werden. Universität in Hagen, Fraunhofer
AISEC, Charité – Universitätsmedi-
Zielgruppe
Nutzer·innen (Patient·innen und zin Berlin, HRTBT Medical Solutions
Forscher·innen) im medizinischen GmbH
KontextINNOVATIVE EINBLICKE 21
DATASKOP – Was passiert
mit meinen Daten?
Webseite https://dataskop.net/ Datenspende
im Projekt Datenspenden haben sich als sinn-
Vorhaben
DataSkop ist eine Datenspende- volle Methode etabliert, um die
plattform, mit deren Hilfe algo- Funktionsweise algorithmischer
rithmische Entscheidunssysteme Systeme zu untersuchen – auch
untersucht werden können. Durch ohne direkten Zugang zu ihnen zu
den Einblick in diese Systeme wer- haben. Nutzer·innen können indivi-
den Menschen befähigt, informiert duell ihre Daten spenden. Dadurch
mit ihren Daten umzugehen, algo- ist es möglich zu verstehen, wie die
rithmische Strukturen zu erkennen Systeme Empfehlungen, Bewertun-
und diese in ihren Grundzügen zu gen und Entscheidungen berech-
verstehen. nen.
Zielgruppe
Nutzer·innen generell; Forscher·in- Partner lgorithmWatch, European New
A
nen, Journalist·innen, (Medien-) School of Digital Studies, Fach-
Pädaog·innen sowie die breite hochschule Potsdam, mediale
Öffentlichkeit. pfade – Verein für Medienbildung,
Universität Paderborn
Um selbst mehr darüber zu erfahren, wie
Unternehmen Daten verarbeiten, würden
43 Prozent der Befragten ihre Daten spenden. JA, HABE ICH BEREITS
GEMACHT - 18,2 %
NEIN - 22,5 %
JA, HABE
ICH ABER
NOCH NICHT
GEMACHT -
ICH BIN UNENT- 24,4 %
SCHLOSSEN - 35 %
Basis: alle Befragten (n = 2000). Angaben in Prozent. Frage Q11: Würden Sie pseudo- mehr darüber zu erfahren, wie Ihre persönlichen Daten dabei gesammelt, verarbei-
nymisierte oder anonymisierte Daten über Ihr digitales Nutzungsverhalten (etwa tet und weitergegeben werden? © Ipsos | Digital Autonomy Hub
auf Webseiten oder in Apps) für Forschungszwecke zur Verfügung stellen, um selbst22 PRIVATHEIT UND DATENSCHUTZ
Governance von Datenschutz
Interview mit Murat Karaboga
Knapp die Hälfte der Befragten für größere nationale Spielräume hen. Nur regulatorische Vorschrif-
hält in unserer repräsentativen eingesetzt hat. ten, die auch durchgesetzt werden,
Umfrage die aktuell geltenden Grundsätzlich halte ich die DSGVO schaffen eine Lösung in der Breite.
Gesetze zum Datenschutz für nicht für ein aus Datenschutzperspek- Aktuell gibt es drei politische Vor-
ausreichend. Macht die DSGVO tive sinnvolles Gesetz, das aber stöße: zum einen die stagnierende
Ihrer Meinung nach genügend Vor- vielmehr einen ersten wichtigen Überarbeitung der ePrivacy-RL
schriften für den Datenschutz? Schritt darstellt, auf den weitere zur ePrivacy-VO. Außerdem die
folgen müssen. Schließlich regelt EU-KI-Regulierung, die gewisser-
Murat Karaboga: Die DSGVO hat die Verordnung vor allem das maßen als Ausfluss aus der DSGVO
ein paar Innovationen hervor- Grundsätzliche in Bezug auf den für den KI-Bereich gelesen werden
gebracht, bestehende Rechte Datenschutz. Spannend wird es kann, aber auch darüber hinaus-
teilweise spezifiziert und sie somit aber erst dann, wenn einzelne geht. Schließlich kann auch der
an die Erfordernisse moderner riskante Bereiche, in denen Daten Regulierungsvorschlag zum Digital
Datenverarbeitungen angepasst. verarbeitet werden, näher in den Services Act der EU (im weiteren
Sie hat aber nur unzureichend zur Fokus der Betrachtung rücken, Sinne auch der Digital Markets Act-
Überwindung des europäischen etwa Social-Media-Plattformen der EU) als Ausfluss aus der DSGVO
Datenschutz-Flickenteppichs oder KI-Anwendungen. Hier sind für den Bereich von Social-Me-
beigetragen. Dies liegt daran, dass Spezialgesetze erforderlich, die dia-Plattformen gelesen werden.
sich die Mehrzahl der EU-Mitglied- auf den Grundprinzipien der DSG-
staaten angesichts des Lobbyismus VO beruhen und diese in die Praxis In unserer Studie stimmten 87 %
ihrer nationalen Volkswirtschaften überführen. der Befragten der Aussage zu,
dass Geräte und Apps stets die
In unserer Umfrage haben 80 % datenschutzfreundlichsten Ein-
80 % der Befragten halten Daten- der Befragten den Eindruck, dass stellungen als Voreinstellungen
schutz nur durch strengere Gesetze Anbieter von digitalen Geräten haben sollten. Halten Sie den
für möglich. und Anwendungen nur durch Ansatz Privacy by Default (PbD) für
strengere Gesetze zum daten- durchsetzbar?
schutzfreundlichen Handeln
gebracht werden können. Was sind Die Schwierigkeit bei dem Ansatz
denn aktuelle politische Vorstöße des PbD ist die Definition des
80 % für einen besseren Datenschutz? Default-Status. Als der Ansatz
mal entwickelt wurde, war ein
Diesen Eindruck kann ich nur un- datensparsamer Default-Standard
terstreichen, denn meist bedeuten Ausgangspunkt des Konzepts.
mehr Daten auch mehr Einnahmen Basierend auf den datensparsams-
für die Anbieter. Der Wettbewerbs- ten Einstellungen eines Dienstes
druck erschwert ethische Daten- sollten Nutzer·innen selbständig
verarbeitungen, denn wer nicht weitere Datennutzungen freigeben
mitzieht, droht wirtschaftlich ins können, ohne dass sie dazu ge-
Hintertreffen zu geraten. Öffent- zwungen oder ‚genudget‘ werden.
Basis: alle Befragten (n = 2000). Darstellung der Top 2.
Angaben in Prozent. Frage Q19: Inwiefern stimmen Sie den licher Aufschrei ist relevant, um Die Erstellung eines Profils bei ei-
folgenden Aussagen zu? Anbieter·innen von digitalen Geräten bestimmte fragwürdige Verarbei- nem Social-Media-Diensteanbieter
und Anwendungen können nur durch strengere Gesetze zum
datenschutzfreundlichen Handeln gebracht werden.
tungspraktiken zu kritisieren, kann sollte beispielsweise nicht dazu
© Ipsos | Digital Autonomy Hub aber immer nur punktuell gesche- führen, dass die Profil-Einstellun-PRIVATHEIT UND DATENSCHUTZ 23
ePrivacy-Richtlinie und -Verordnung:
Die ePrivacy-Richtlinie (ePrivay-RL) regelt den
Datenschutz in der digitalen Kommunikation in
der Europäischen Union. Es wird darüber verhan-
gen von vornherein auf öffentlich
delt, sie durch eine ePrivacy-Verordnung (ePri-
gesetzt sind. Dieses Verständnis
vacy-VO) zu ersetzen. Anders als eine Richtlinie
wurde so auch von der Daten-
gilt eine Verordnung verbindlich und unmittelbar
schutz-Forschungscommunity
in den Mitgliedsstaaten der Europäischen Union.
geteilt und weiterentwickelt.
Wie hat sich die Definition von
PbD dann verändert?
Nichtsdestotrotz haben sich viele ten DSGVO-Vorgaben im Hinblick
Während der Verhandlungen zur Diensteanbieter im Laufe der auf verschiedene Datenverarbei-
DSGVO demonstrierten datenver- Jahre angesichts der öffentlichen tungskontexte. Dies könnte ein
arbeitende Unternehmen stark ge- Proteste gegen weitgehende guter Anknüpfungspunkt sein. Aber
gen ein derartiges PbD-Verständ- Datenverarbeitungen zuneh- auch die Zivilgesellschaft und Wis-
nis. Das zentrale Argument lautete, mend datenschutzfreundlicher senschaftscommunity entwickeln
dass Betroffene im Rahmen der aufgestellt. Die Einrichtung eines laufend sinnvolle Vorschläge, die
Nutzung eines Dienstes selbst Social-Media-Profils z. B. führt bei stärker beachtet werden sollten.
festlegen sollten, was Default vielen Diensten inzwischen nicht
bedeutet. Der Default-Standard mehr zu einer automatischen Ver-
sollte also an den Nutzungszweck öffentlichung aller Inhalte. Dies ist
gekoppelt werden, der wiederum sehr zu begrüßen. Diese Handlun-
von den datenverarbeitenden gen sind jedoch meist „good will“
Stellen festgelegt wird. Dieses Ver- und keine Verpflichtung. Hier wäre
ständnis hat dann auch Eingang in eine stärkere gesetzliche Definiti-
die DSGVO gefunden. Als Default on des Default-Standards sehr zu
gilt, wozu Betroffene eingewilligt begrüßen.
haben bzw. was der rechtmäßige
Zweck der Verarbeitung ist. Somit Welche politischen und rechtli-
können selbst sehr weitgehende chen Möglichkeiten wären außer-
Datenverarbeitungen als konform dem denkbar? Murat Karaboga,
mit PbD definiert werden. Fraunhofer Institut für
System- und Innovati-
Die Technologie- und Dienste-Ent- onsforschung ISI / Forum
Fast 9 von 10 Personen wicklung bleibt nicht stehen. Neue Privatheit
sprechen sich für Privacy by Angebote und die zunehmende © Franz Warmhof Fraun-
hofer ISI
Default aus. Ausstattung vieler Lebensberei-
che des Menschen mit digitaler
Sensorik, zum Beispiel durch Murat Karaboga ist Politikwis-
Smart Wearables und Smart-ho- senschaftler und arbeitet seit
me-Geräte, schaffen immer wieder 2014 am Fraunhofer-Institut
neue Herausforderungen für den für System- und Innovations-
Datenschutz. Da müssen EU- und forschung ISI in Karlsruhe. In
nationale Gesetzgeber mithalten seiner Forschung untersucht er,
können. Wichtig wäre es, neben wie neue Technologien ihren
den oben genannten Gesetzes- Weg in die Gesellschaft finden
initiativen stets auch weitere können, ohne negative Ne-
risikoadäquate Regulierungen beneffekte mit sich zu bringen.
voranzutreiben, wann immer dies Seiner kürzlich abgeschlosse-
erforderlich ist. Der Europäische nen Promotion behandelt die
Basis: alle Befragten (n = 2000). Darstellung der Top 2. Datenschutzausschuss veröffent- Entstehung der DSGVO unter
Angaben in Prozent. Frage Q22: Inwiefern stimmen Sie licht in regelmäßigen Abständen Berücksichtigung der Daten-
der folgenden Aussagen zu? Geräte und Apps sollten
immer die datenschutzfreundlichsten Einstellungen als
Empfehlungen zur Operationalisie- schutzwahrnehmungen der
Voreinstellungen haben. © Ipsos | Digital Autonomy Hub rung der vergleichsweise abstrak- beteiligten Akteure.24 PRIVATHEIT UND DATENSCHUTZ
Tipps zum Selbstdatenschutz
Beitrag von Bettina Müller
Mit Selbstdatenschutz sind Maßnahmen gemeint, die ich
treffe, um meine informationelle Selbstbestimmung zu
sichern. Ich will wissen und kontrollieren, wer welche per-
sönlichen Daten wann, wo und zu welchem Zweck erhebt,
nutzt oder weitergibt. Dieses Grundrecht wird bei fast jeder
Aktivität in der digitalen Welt angegriffen. Nicht nur krimi-
nellen Attacken – durch Viren, Hoax, Phishing etc. – bin ich
ausgesetzt. Auch Anbieter greifen im breiten Stil auf meine Die Befragten treffen verschiedene
Daten zu, sammeln Informationen über mein Verhalten, Maßnahmen, um ihre Daten zu schützen.
meine Beziehungen, aber auch meine Kontaktpersonen in
der digitalen Welt.
Kurz und kompakt folgen nun einige Tipps und Strategien
zur eigenen Anwendung:
Software:
· Cloudsoftware, Online-PDF-Tools und Online-Speicher
vermeiden
· quelloffene Software verwenden
· Funktionen reduzieren, z. B. PDF-Reader verwenden, die –
nur die Anzeige von Dokumenten ermöglichen
Internet:
· unerwünschte Seiten in der hosts-Datei nach 0.0.0.0 oder
127.0.0.1 bzw. IP-6-Äquivalenten „umleiten“; zu Hause einen
eigenen Proxy (es reicht ein Raspi) einsetzen
· neutrale DNS-Server nutzen
· Internetzugang für ausschließlich im Heimnetz genutzte
Geräte (z. B. Drucker) im Router blockieren und Drucker
über IP, nicht über Webdienste, anbinden
64 %
Ich verwende verschiedene Passwörter für verschiedene Dienste.
58 % I ch lösche Daten über meine Onlineaktivitäten (z. B. Browserver-
E-Mail: läufe, Cookies).
· „echte“ E-Mail-Adressen schützen durch „Weg- 48 % Ich vermeide bestimme Anbieter.
werf-E-Mail-Adressen“ 39 % I ch lehne bei Cookie-Bannern auf Internetseiten die Cookies zu
Marketingzwecken ab, inklusive jener, die sich unter dem Ab-
· E-Mail-Client nutzen anstatt Webmail
schnitt ‚Berechtigtes Interesse‘ befinden.
· keine Dienste nutzen, die Adressbücher in der Cloud
37 % I ch konfiguriere die Einstellungen bei meinen Geräten und Anwen-
speichern, denn damit wandern auch die Adressen der dungen so, dass der Zugriff auf sensible Daten verwehrt wird.
Mailpartner in die Cloud 26 % Ich nutze verschlüsselte Kommunikation.
· E-Mail primär als reinen Text betrachten, dann fallen ge- 18 % Ich nutze ein VPN.
fälschte Links schneller auf 12 % I ch nutze datenschutzfreundliche Alternativen zu verbreiteten
· keine Dateien/Bilder aus dem Internet nachladen (aus- Geräten und Anwendungen.
schließlich Mailanhänge nutzen)
Basis: Befragte, die Maßnahmen zum Schutz ihrer Daten umsetzen (n = 1960).
Angaben in Prozent. Frage Q15: Welche Maßnahmen treffen Sie, um Ihre Daten zu
schützen? © Ipsos | Digital Autonomy HubPRIVATHEIT UND DATENSCHUTZ 25
63 % der Befragten finden,
dass Nutzer·innen selbst die
· datenschutzfreundliche Provider verwenden
· E-Mails mittels MIME oder OpenPGP verschlüsseln Verantwortung dafür tragen,
· Beim Versenden von E-Mails an feste Gruppen keine lan- ihre Daten zu schützen.
gen CC-Listen verwenden, sondern Mailinglisten anlegen,
bei denen alle Teilnehmer eine eigene E-Mail erhalten
Smartphone: Bettina Müller ist ein digitales
· Funktionen wie Standort, Bluetooth und mobile Daten nur Urgestein: Bereits 1967 lernte
anschalten, wenn diese wirklich genutzt werden sie im Informatikunterricht in
· verschiedene Geräte nicht im Netz synchronisieren der Schule an einer Zuse Z23.
· Smartphone rooten, ein alternatives Betriebssystem ver- Sie studierte Medizin (Appro-
wenden, bation und Promotion), Mathe-
·V PN-Verbindung und Adblocker nutzen matik, Informatik und Medi-
· freie
App-Stores verwenden zinrecht (LL.M.). Seit 1987 ist
·P repaid-Karten aus Tauschbörsen verwenden sie im Netz unterwegs und seit
· keine
besonders vertraulichen Anwendungen auf dem 1995 Mitglied im Präsidiumsar-
Smartphone nutzen (etwa hinsichtlich Gesundheit, Finan- beitskreis der GI. Die Ärztin und
zen) ausgebildete Datenschutzbe-
auftragte ist außerdem Mitglied
Social Media: im BvD und im Chaos Computer
·M
essenger nicht mit der Telefonnummer verbinden, son- Club.
dern dezentrale, anonym nutzbare Messenger mit Pseudo-
nymen verwenden
·k
eine Cloudspeicher nutzen: Adressbücher, Favoriten, Pass-
wörter etc. nicht zentral ablegen
Surfen:
·d atenschutzfreundliche Suchmaschine verwenden
· Skripte
von Dritten5 unterbinden und ggf. in getrennter
Browserumgebung temporär freigeben
· datenschutzfreundliche Browser verwenden6
·T racking und Werbung blockieren7
· d atenschutzfreundliche Browser bzw. mehrere Browser für
verschiedene Zwecke und isolierte Container verwenden
Eine gute Übersicht mit Tipps zur digitalen Selbstverteidi-
gung findet sich außerdem unter digitalcourage.de!
5
https://de.wikipedia.org/wiki/NoScript
6
https://www.datenschutzexperte.de/blog/datenschutz-im-unternehmen/
browser-datenschutz-welcherbrowser-schuetzt-ihre-daten/
7
https://de.wikipedia.org/wiki/UBlock_OriginSie können auch lesen