Algorithmische Empfehlungssysteme - CAIS NRW
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
Meinungsmonitor Künstliche Intelligenz Factsheet Nr. 5 - Mai 2021 Factsheet Nr. 5 – Mai 2021 Algorithmische Empfehlungssysteme Was denkt die deutsche Bevölkerung über den Einsatz und die Gestaltung algorithmischer Empfehlungssys- teme? Autoren: Kimon Kieslich, Pero Došenović & Frank Marcinkowski Algorithmische Empfehlungssysteme werden von einer Mehrheit der Bevölkerung regelmäßig genutzt. Die Empfehlungen basieren in der Regel auf großen Datenmengen, die über die Nut- zer*innen gesammelt werden. Sie werden regelgeleitet sowie teilweise selbstlernend ausgewer- tet. Forschung zum sogenannten Automation Bias geht davon aus, dass Menschen dazu neigen algorithmisch getroffenen Empfehlungen tatsächlich zu folgen. Auch wenn sie beispielsweise Konsumentscheidungen von Menschen lediglich vorbereiten, kommen sie insoweit einem au- tomatisierten Entscheidungssystem recht nahe. Unklar ist, wie die deutsche Bevölkerung sol- che Systeme beurteilt: Welche Meinungen liegen zu den Konsequenzen algorithmischer Emp- fehlungen vor? Und bei welche Daten zeigen sich die Befragten eher bereit für das bestmögliche Ergebnis abzugeben? Unsere Daten aus dem Meinungsmonitor Künstliche Intelligenz [MeMo:KI] zeigen, dass in vielen Anwendungsbereichen (z.B. auf Musikplattformen oder in Me- diatheken) algorithmische Empfehlungssysteme als nützlich wahrgenommen werden. Bei ge- nauerer Nachfrage zu solchen Systemen zeigt sich paradoxerweise jedoch, dass viele Befragte sich nur bedingt Zeitersparnis, Orientierung oder das bestmögliche Ergebnis versprechen. Des Weiteren halten 67 Prozent der Befragten algorithmische Empfehlungssysteme für gar nicht oder nur wenig vertrauenswürdig. Die Verwendung personenbezogener Daten durch solche Systeme sehen die Befragten – wenig überraschend - sehr kritisch; insbesondere wenn es um Informationen über persönliche Kontakte oder das Konsumverhalten geht. Hintergrund Algorithmen nehmen im alltäglichen Leben ei- von Nutzer*innen (personalisierte) Empfehlun- nen immer größeren Platz ein. In verschiede- gen. Je mehr Daten ein solches System nutzt, nen Konsumsituationen wie dem Online-Shop- desto passgenauer können Empfehlungen zu- ping oder in Musik- und Filmdatenbanken sind geschnitten werden. So entstehen Musiklisten Algorithmen am Werk. Sogar Vorschläge für die basierend auf den Vorlieben von Hörer*innen Erweiterung des persönlichen oder beruflichen oder es werden bestimmte Produkte in Onlines- Netzwerkes kommen mittlerweile automatisiert hops mit dem Hinweis vorgestellt „andere Käu- von algorithmischen Empfehlungssystemen. fer kauften auch“. Sie beruhen, technisch betrachtet, meist auf der Sammlung großer Datenmengen, soge- Unter den Stichworten algorithmic appreciation nannten Big Data. Mithilfe der Methoden Künst- (Logg, Minson, & Moore, 2019) und algorithmic licher Intelligenz (KI), insbesondere von Verfah- aversion (Dietvorst, Simmons, & Massey, 2015) ren maschinellen Lernens, werten algorithmi- wird in der Wissenschaft diskutiert, wie Men- sche Empfehlungssysteme diese Datenberge schen mit algorithmischen Empfehlungen um- aus und erstellen aufgrund der Informationen gehen. Während die algorithmic appreciation Literatur zeigt, dass vor allem Laien algorithmi- sche Ratschläge mehr wertschätzen als die Ein Projekt von: Gefördert durch:
Meinungsmonitor Künstliche Intelligenz Factsheet Nr. 5 - Mai 2021 Ratschläge von Mitmenschen (Logg et al., der Bevölkerung gegenüber algorithmischen 2019), zeichnet die algorithmic aversion Litera- Empfehlungssystemen. tur ein gegensätzliches Bild. Vor allem bei Emp- fehlungen, die mit einer gewissen Unsicherheit Vier Fragen stehen im Zentrum unserer Studie: verbunden sind, wird der Einsatz von Algorith- Wie verbreitet ist die Nutzung algorithmischer men skeptisch betrachtet (Dietvorst & Bharti, Empfehlungssysteme? Für wie nützlich werden 2020). Forschung zum sogenannten Automa- dere Inhalte gehalten? Wie fallen die wahrge- tion Bias zeigt, dass Menschen von Computern nommenen Begleitumständen und Konsequen- getroffene Empfehlungen oder Entscheidungen zen solcher Systeme aus? Welche ethischen nur selten hinterfragen (Cummings, 2004). Ver- Herausforderungen werden im Zusammen- meintlich „falsche“ oder schlechtere Empfeh- hang mit KI gesehen? Schließlich schlüsseln lungen von solchen Systemen gehen dann in wir auf, welche (personenbezogenen) Informa- menschliche Entscheidungen ein (Abdollahi & tionen nach Meinung der deutschen Bevölke- Nasraoui, 2018). Während diese Literatur vor rung überhaupt von algorithmischen Empfeh- allem auf die psychologischen Komponenten lungssystemen genutzt werden sollten und wel- der Bewertung eingeht und mit Experimental- che eher nicht. designs arbeitet, fragen wir in unserer Sonder- befragung nach der generellen Einstellung in Methodensteckbrief Methode Onlinebefragung Ausführendes Institut: forsa Politik & Sozialforschung GmbH Grundgesamtheit: Deutsche Bevölkerung ab 18 Jahren, die mindestens gelegentlich das Internet nutzt Stichprobe: gewichtete Zufallsstichprobe (N=1.006) Gewichtungskriterien: Alter, Geschlecht und Region (Bundesland) Erhebungszeitraum: 2020/KW 39 (21.-25.09.2020) Weitere Informationen: Ausführlicher Methodensteckbrief über das MeMo:KI Projekt Nutzung vor allem bei Konsumentscheidungen Der Kontakt mit algorithmischen Empfehlungs- von Videomaterial in Mediatheken wie Netflix systemen ist wegen derer weiten Verbreitung oder aber auch bei der Auswahl von Nachrich- kaum zu vermeiden. Wir wollten von den Be- ten. Rund 84 Prozent der Online-Shopper sind fragten wissen, wo Ihnen Empfehlungssysteme zumindest selten algorithmischen Vorschlägen begegnen und wie oft sie diese tatsächlich nut- gefolgt. Weniger genutzt werden maschinelle zen. Dazu sollten die Befragten für sechs ver- Empfehlungen, wenn es um persönliche Netz- schiedene Anwendungen angeben, ob und werke geht. Immerhin zwei Drittel der Nutzen- wenn ja wie häufig sie diese nutzen. Abbildung den hat schon einen Freundesvorschlag in pri- 1 zeigt, wie häufig algorithmische Empfeh- vaten Netzwerken wie Facebook angenom- lungssysteme in Anspruch genommen werden. men. Bei beruflichen Netzwerken ist die Zu- rückhaltung noch stärker ausgeprägt. Danach werden Vorschläge von Algorithmen vor allem bei Konsumentscheidungen bewusst Viele Befragte folgen also – zumindest gele- genutzt werden. So folgen die Befragten häufig gentlich – algorithmischen Empfehlungen. In Empfehlungen von Algorithmen beim Konsum unserem Sample haben nur circa 4 Prozent der Ein Projekt von: Gefördert durch:
Meinungsmonitor Künstliche Intelligenz Factsheet Nr. 5 - Mai 2021 Befragten nach eigenen Angaben noch nie ein mit algorithmischen Empfehlungssystemen ge- algorithmisches Empfehlungssystem genutzt. sammelt – am häufigsten bei Video-on-De- So hat eine überwiegende Mehrheit der Befrag- mand Angeboten und beim Online-Shopping. ten mindestens in einem Bereich Erfahrungen Abbildung 1: Nutzung von algorithmischen Empfehlungssystemen Mediathek (N=795) 30% 45% 25% Musikplattform (N=686) 25% 36% 39% Nachrichten (N=798) 25% 49% 26% Shopping (N=957) 23% 61% 16% Privates Netzwerk (N=728) 13% 52% 35% Berufliches Netzwerk (N=614) 7% 38% 55% 0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100% (sehr) häufig selten / hin und wieder noch nie Anmerkung: N=614-957, Bezugsgröße sind Nutzende der jeweiligen Anwendung Fragetext: Kommen wir nun zu einem Thema aus dem Bereich der Digitalisierung, konkret zu algorithmischen Empfehlungssys- temen. Mit algorithmischen Empfehlungssystemen meinen wir solche Angebote, die mithilfe der Auswertung verschiedener Da- ten über Nutzer*innen automatisiert individualisierte Empfehlungen für spezielle Produkte, Dienstleistungen oder Kontakte ge- ben. Sie werden in ganz verschiedenen digitalen Anwendungen eingesetzt und den Nutzer*innen zur Verfügung gestellt. Wie ist das bei Ihnen, wie oft kaufen Sie ein Produkt, nutzen eine Dienstleistung oder knüpfen einen Kontakt, wenn diese Ihnen auto- matisiert vorgeschlagen werden? Wie ist das bei…" (1=noch nie; 2=selten; 3=manchmal; 4=häufig; 5=fast immer; 6= habe eine solche Anwendung noch nie genutzt; 9=weiß nicht) Empfehlung beim Unterhaltungskonsum besonders nützlich; Qualitätsbeurteilung generell jedoch eher zurückhaltend Im nächsten Schritt wurde untersucht, für wie Empfehlungen überhaupt nutzen, durchaus ge- nützlich die algorithmischen Empfehlungssys- schätzt. Interessanterweise fällt die Einschät- teme in den verschiedenen Anwendungsberei- zung des Nutzens beim Shopping – der Anwen- chen beurteilt werden. dung, bei der algorithmischen Empfehlungen am häufigsten gefolgt wird – vergleichsweise Die Ergebnisse zeigen, dass vor allem der Ein- zurückhaltend aus. Nur 27 Prozent empfinden satz von Algorithmen beim Unterhaltungskon- maschinelle Empfehlungen beim Shopping als sum als nützlich empfunden wird. Etwa die hilfreich; knapp 24 Prozent der Befragten finden Hälfte der Befragten empfindet demnach die diese sogar nicht nützlich. Die größte Skepsis maschinelle Unterstützung bei Musikplattfor- gegenüber der Nützlichkeit algorithmischer men (46%) und bei Mediatheken (37%) als hilf- Empfehlungen findet sich bei Anwendungen, reich. Aber auch die Empfehlungen in berufli- die sich auf den Bereich privater Kontakte be- chen Netzwerken wie LinkedIn oder Xing (34%) ziehen. In privaten Netzwerken wie Facebook werden von den wenigen Befragten, die solche liegt die subjektiv empfundene Nützlichkeit so- Ein Projekt von: Gefördert durch:
Meinungsmonitor Künstliche Intelligenz Factsheet Nr. 5 - Mai 2021 gar nur bei 23 Prozent, Nützlichkeitsbewertun- meisten Fällen eine gewisse Nützlichkeit zu- gen von algorithmischen Empfehlungssyste- schreiben. Vor allem beim Konsum von Unter- men sind folglich kontextabhängig. haltungsmedien werden Algorithmen als sinn- volles Instrument zur Beratung betrachtet. Insgesamt zeigt sich jedoch auch, dass diejeni- gen, die algorithmischen Empfehlungen zumin- dest gelegentlich folgen, diesen auch in den Abbildung 2: Nützlichkeitsbewertung algorithmischer Empfehlungssysteme Musikplattform (n=399) 51% 28% 19% 2% Mediathek (n=561) 46% 33% 18% 2% Berufliches Netzwerk (n=267) 37% 27% 30% 6% Nachrichten (n=587) 34% 35% 27% 4% Shopping (n=800) 33% 36% 29% 2% Privates Netzwerk (n=445) 23% 27% 45% 4% 0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100% (sehr) nützlich (4/5) teils/teils (3) (sehr) unnütz (1/2) weiß nicht Anmerkung: N=267-800; Befragte, die mindestens selten algorithmische Empfehlungen in den entsprechenden Anwendungen folgen Fragetext: Und wie würden Sie diese Empfehlungssysteme alles in allem beurteilen? Wie nützlich finden Sie algorithmische Empfehlungssysteme… ((1) finde ich sehr unnütz; (5) finde ich sehr nützlich; (9) weiß nicht) Doch worauf könnte dieser wahrgenommene der Befragten meinen, dass maschinelle Emp- Nutzen basieren? Obwohl in Abbildung 2 ge- fehlungen generell eine gute Orientierung bie- zeigt wurde, dass Nutzende maschineller Emp- ten. fehlungssysteme, diese in den meisten Fällen auch prinzipiell für nützlich halten, bestätigen Die Analyse von Qualitätsbewertungen algo- sich diese Ergebnisse nur bedingt, wenn nach rithmischer Empfehlungssysteme zeigt Hand- spezifischen Qualitäten solcher Systeme ge- lungsbedarfe auf: Viele Befragte denken nicht, fragt wird. So trauen nur 10 Prozent der Befrag- dass diese das beste Ergebnis für Nutzende ten den Algorithmen zu, dass sie das in der Re- anzeigen können. Ebenso bieten algorithmi- gel beste Ergebnis für Nutzende anzeigen; sche Empfehlungssysteme – im Allgemeinen – Über die Hälfte der Befragten (52%) glauben keine gute Orientierung und tragen auch kaum hingegen, dass dies nicht zutrifft. Auch eine Ori- zur Zeitersparnis bei. Unabhängig davon, ob entierungs- und Zeitersparnisfunktion wird sol- diese Einschätzung objektiv korrekt ist, stellt chen Systemen eher nicht attestiert. Nur 23 dies eine große Herausforderung für Unterneh- Prozent der Befragten sprechen algorithmi- men dar, die solche Systeme entwickeln oder schen Empfehlungssystemen die Fähigkeit zu, für Zeitersparnis zu sorgen; und nur 19 Prozent Ein Projekt von: Gefördert durch:
Meinungsmonitor Künstliche Intelligenz Factsheet Nr. 5 - Mai 2021 einsetzen. Unternehmen können sich deswe- Bathi (2020) in experimentellen Studien zeigen, gen darin versuchen, ein höheres Maß an Usa- lehnen Personen in nicht vorhersagbaren Situ- bility in ihre Anwendungen zu integrieren. ation eher Algorithmen ab. Weitere Ergebnisse von Dietvorst et al. (2015) zeigen, dass Men- Wissenschaftlich lassen sich diese Erkennt- schen algorithmische Empfehlungen eher ab- nisse mit der eingangs erwähnten Algorithmic lehnen, wenn sie Erfahrungen mit Fehlern in Aversion Literatur verbinden. Sobald Algorith- solchen Systemen gemacht haben. Dies men ein gewisses Maß an Unsicherheit in ihre könnte zum Beispiel auftreten, wenn Personen Entscheidung mit einbeziehen müssen – wie beim Onlineshopping einen Gegenstand emp- dies bei Empfehlungen auf Basis von Nut- fohlen bekommen, der nach Meinung der Kon- zungsverhalten und Nutzerdaten der Fall ist – sumenten überhaupt nicht zu ihren persönli- entsteht Unsicherheit im Ergebnis. Eine Musik- chen Präferenzen passt; so entsteht eine ge- oder Serienempfehlung kann mathematisch wisse Skepsis gegenüber algorithmischen kein „richtiges“ Ergebnis sein. Vielmehr ist es Empfehlungen. eine Wahrscheinlichkeitseinschätzung auf- grund von Präferenzdaten. Wie Dietvorst und Abbildung 3: Meinungen zur Qualität algorithmischer Empfehlungssysteme sparen Nutzenden Zeit 23% 32% 38% 7% bieten Orientierung 19% 35% 40% 7% zeigen bestes Ergebnis 10% 29% 52% 10% 0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100% trifft voll und ganz zu (4/5) teils/teils (3) trifft (überhaupt) nicht zu (1/2) weiß nicht Anmerkung: N=1006 Fragetext: Inwiefern treffen die folgenden Aussagen Ihrer Meinung nach allgemein auf algorithmische Empfehlungssysteme zu? Algorithmische Empfehlungssysteme… ((1) trifft überhaupt nicht zu; (5) trifft voll und ganz zu; (9) weiß nicht) Wir sehen also, dass Befragte zwar regelmäßig nicht gesehen. Auch glauben die Wenigsten, algorithmische Empfehlungssysteme nutzen dass Algorithmen tatsächlich, dass für Sie und diesen auch eine gewisse Nützlichkeit at- beste Ergebnis anzeigen können. Wir finden testieren, dies aber nur leidlich mit einer guten folglich eine Diskrepanz zwischen der Nützlich- Qualitätseinschätzung der Systeme einher- keitsbewertung und der Qualitätsbewertung der geht. Weitläufige Versprechungen solcher Sys- Systeme. Woraus speist sich die Nützlichkeits- teme, dass sie Zeitersparnis oder Orientierung bewertung, wenn nicht aus wahrgenommener bieten, werden vom größten Teil der Befragten Ein Projekt von: Gefördert durch:
Meinungsmonitor Künstliche Intelligenz Factsheet Nr. 5 - Mai 2021 Qualitätssteigerung? Und werden den Empfeh- Konkurrenz mit der Maschine die Treffgenauig- lungen der Systeme trotzdem Folge geleistet keit überprüfen wollen. Dabei vergleicht der oder werden diese verworfen? Nutzende die maschinelle Empfehlung mit den eigentlichen Präferenzen und bewertet das Er- Eine mögliche Erklärung könnte darin liegen, gebnis. Unsere Ergebnisse legen – wenn dies dass algorithmische Empfehlungssysteme ha- so stattfindet – nahe, dass der Test meist nega- bituell genutzt werden und Nutzende zwar eine tiv für den Algorithmus ausfallen sollte. Diese diffuse Nützlichkeit sehen, diese jedoch nicht Ergebnisse werfen somit Fragen auf, welcher in beschreiben bzw. an Qualitätskriterien festma- künftiger Forschung nachgegangen werden chen können. Ein anderer Erklärungsansatz sollte. könnte sein, dass Nutzende in spielerischer Skeptische Haltung gegenüber der ethischen Qualität al- gorithmischer Empfehlungssysteme Während die ersten Analysen Aufschlüsse über Die Ergebnisse zeigen, dass die Befragten die Nützlichkeits- sowie Qualitätsbewertungen der ethische Qualität solcher Systeme eher skep- Anwendungen Aufschluss liefert, haben wir im tisch beurteilen. Nur 26 Prozent der Befragten Folgenden nach der wahrgenommenen Ris- attestieren algorithmischen Empfehlungssyste- kanz algorithmischer Empfehlungssystemen men einen nachvollziehbare Funktionsweise gefragt. und nur 11 Prozent glauben, dass die Systeme alle Benutzer gleichbehandeln. Bedenklich ist Weil häufig von „lernenden Systemen“ gespro- auch, dass nur sechs Prozent der Befragten al- chen wird, fallen algorithmische Empfehlungs- gorithmische Empfehlungssysteme für vertrau- systeme unter den Oberbegriff „Künstliche In- enswürdig halten; 67 Prozent sagen hingegen, telligenz“. Vertrauenswürdige Künstliche Intelli- dass diese Systeme nicht vertrauenswürdig genz bedarf laut EU-Richtlinien einer ethischen sind. Darüber hinaus glauben 26 Prozent, dass Gestaltung, bei der Grundsätze der Transpa- algorithmische Empfehlungssysteme die Präfe- renz, Nachvollziehbarkeit und Gleichbehand- renzen der Nutzenden ändern, ihnen also nicht lung im Vordergrund stehen sollten (European nur Produkte und Dienstleistungen empfehlen, Commission, 2020). Bereits in vorherigen Un- sondern nahelegen, was man wollen sollte. tersuchungen des MeMo:KI, haben wir die Mei- nung der deutschen Bevölkerung zu ethischen Insgesamt sprechen die Daten für eine eher kri- Gestaltung von KI nachgezeichnet. Dort konnte tische Sicht der Befragten auf solche Systeme. gezeigt werden, dass die deutsche Bevölke- Das Gros der deutschen Bevölkerung glaubt rung bisher noch ein unterentwickeltes Risiko- nicht, dass algorithmische Empfehlungssys- bewusstsein gegenüber ethischen Auswirkun- teme ethischen Standards genügen. Insbeson- gen von KI hat (Kieslich, Starke, Dosenovic, dere das erklärte Ziel der EU-Richtlinien, die Keller, & Marcinkowski, 2020). Jedoch geht aus vertrauenswürdige Gestaltung von KI, ist in den einer Diskussionsrunde unter Schirmherrschaft Augen der Bürger*innen nicht eingelöst. Diese der Kommission zur Ermittlung der Konzentra- Zahlen zeigen für Regulatoren sowie entwi- tion im Medienbereich (KEK) hervor, dass ckelnde Unternehmen Handlungsbedarf auf. Im Transparenz, Chancengleichheit und Diskrimi- Sinne der EU-Zielsetzung sollte darauf geach- nierungsfreiheit in algorithmischen Empfeh- tet werden, dass a) algorithmische Empfeh- lungssystemen durchaus gefordert werden. lungssysteme transparent, fair und vertrauens- Doch was denkt die deutsche Bevölkerung über würdig gestaltet werden und b) die Umsetzung die ethische Gestaltung algorithmischer Emp- einer vertrauenswürdigen Gestaltung der Sys- fehlungssysteme? teme gegenüber Bürger*innen kommuniziert wird. Ein Projekt von: Gefördert durch:
Meinungsmonitor Künstliche Intelligenz Factsheet Nr. 5 - Mai 2021 Abbildung 4: Meinungen zur ethischen Gestaltung algorithmischer Empfehlungssysteme sind nachvollziehbar 26% 23% 43% 8% ändern Geschmack von Nutzenden 26% 30% 34% 11% behandeln alle gleich 11% 20% 48% 21% sind vertrauenswürdig 6% 17% 67% 10% 0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100% trifft voll und ganz zu (4/5) teils/teils (3) trifft (überhaupt) nicht zu (1/2) weiß nicht Anmerkung: N=1006 Fragetext: Inwiefern treffen die folgenden Aussagen Ihrer Meinung nach allgemein auf algorithmische Empfehlungssysteme zu? Algorithmische Empfehlungssysteme… ((1) trifft überhaupt nicht zu; (5) trifft voll und ganz zu; (9) weiß nicht) Verwendung persönlicher Daten wird mehrheitlich abge- lehnt Daten sind der Rohstoff damit algorithmischer takte (84% Ablehnung) und deren Konsumver- Empfehlungssysteme funktionieren. Ohne den halten (82% Ablehnung) wird als schlecht emp- Einbezug großer Datenmengen können ma- funden. Die Befragten differenzieren aber schinelle Empfehlungssysteme nicht lernen durchaus beim Einbezug eigener Daten: Im- und auch keine genauen Empfehlungen an merhin etwas mehr als ein Fünftel (21 %) findet Nutzende ausspielen. Doch welche Daten sol- die Berücksichtigung eigener Interessen und len algorithmische Empfehlungssysteme nach Hobbies von Empfehlungssystemen durchaus Meinung der Befragten generell einbeziehen gut. Und auch das Einbeziehen von Daten über dürfen und welche nicht? Im letzten Frageblock den persönlichen Konsum werden von 18 Pro- untersuchen wir die Präferenzen der deutschen zent der Befragten gutgeheißen. Die Ableh- Bevölkerung zu dieser Frage. nung steigt jedoch, wenn es um Daten wie den eigenen Wohnort (66% Ablehnung), das Ein- Unsere Ergebnisse zeigen, dass der Einbezug kommen oder den Beruf (78% Ablehnung) oder persönlicher Daten generell für alle abgefragten die sexuelle Orientierung (81% Ablehnung) Datentypen tendenziell abgelehnt wird. Für na- geht. hezu alle abgefragten Datentypen liegt die Missbilligung bei über 50 Prozent. Allen voran Insgesamt zeigt sich, dass die deutsche Bevöl- der Einbezug von Daten über persönliche Kon- kerung das Einbeziehen persönlicher Daten für Ein Projekt von: Gefördert durch:
Meinungsmonitor Künstliche Intelligenz Factsheet Nr. 5 - Mai 2021 algorithmische Empfehlungssysteme mehrheit- für algorithmische Empfehlungssystem genutzt lich ablehnt. Die Befragten sprechen sich inso- werden? Hier bedarf es Forschung, die aufklärt, weit gegen eine gängige Praxis aus, da das wann und warum Nutzende wissen, welche Da- Sammeln von Nutzerdaten durch Onlineplatt- ten wie und von wem verwendet werden. Wei- formen Gang und Gebe ist. So basieren Vor- terhin stellt sich die Frage nach der Handlungs- schläge von Dienstleistern wie Amazon, Spotify relevanz, wenn Bewusstsein gegenüber der oder Netflix auf Nutzerdaten. Verwendung eigener Daten besteht. Die Litera- tur zum Privacy Paradox kann hier als Orientie- Aus wissenschaftlicher Perspektiven stellen rung dienen, weil sie zeigt, warum Online-User sich Anschlussfragen auf diese Ergebnisse. Zu- häufig schnell persönliche Informationen preis- nächst ist die Rolle von Transparenz bzw. Prob- geben, obwohl sie gleichzeitig angeben sich lembewusstsein gegenüber der Allgegenwär- über den Schutz der eigenen Daten zu sorgen tigkeit von Datensammlungen zu ergründen. (z.B. Kokolakis, 2017). Wissen Nutzende überhaupt, dass ihre Daten Abbildung 5: Haltung zum Einbezug persönlicher Daten in algorithmische Empfehlungssysteme egeine Interessen und Hobbies 21% 28% 48% 3% eigener bisheriger Konsum 18% 26% 52% 3% eigenes Alter und Geschlecht 14% 27% 56% 4% eigener Wohnort 11% 20% 66% 3% eigenes Einkommen oder Beruf 6% 12% 78% 4% Konsumverhalten persoenlicher Kontakte 4% 10% 82% 4% eigene Sexuelle Orientierung 4% 9% 81% 6% Persoenliche Kontakte 2% 10% 84% 4% 0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100% finde ich (sehr) gut (4/5) unentschieden (3) finde ich (sehr) schlecht (1/2) weiß nicht Anmerkung: N=1.006 Fragetext: In der Regel orientieren sich die Empfehlungen an Informationen über die Nutzer*innen. Dabei benötigen verschiedene Systeme unterschiedliche Informationen. Uns interessiert, wie Sie ganz grundsätzlich die Berücksichtigung folgender Informati- onen für die Erzielung eines möglichst guten Ergebnisses bewerten. Wie finden Sie es, wenn algorithmische Empfehlungssys- teme Informationen einbeziehen? (1=finde ich sehr schlecht; 5=finde ich sehr gut; 9=weiß nicht) Nutzende sind positiver gegenüber dem Einbezug per- sönliche Daten eingestellt Gibt es Unterschiede in der Beurteilung der Da- diese Frage zu beantworten, wurde die Befrag- tengrundlagen von algorithmischen Empfeh- ten in zwei Gruppen aufgeteilt; Grundlage für lungssystemen einbezogen werden zwischen die Aufteilung bildet die Nutzungsfrage aus Ab- Viel- und Wenignutzern solcher Systeme? Um Ein Projekt von: Gefördert durch:
Meinungsmonitor Künstliche Intelligenz Factsheet Nr. 5 - Mai 2021 bildung 1. Personen, die mindestens ein algo- die mindestens gelegentlich das Internet nutzt) rithmisches Empfehlungssystem häufig oder vorgefunden werden können. sehr häufig nutzen, wurden als „Vielnutzende“ klassifiziert; Personen, die algorithmische Emp- Die Ergebnisse zeigen, dass Vielnutzende den fehlungssysteme nur sporadisch nutzen (maxi- Einbezug persönlicher Daten für algorithmi- mal „manchmal“ bei der Nutzungsfrage für je- schen Empfehlungssysteme positiver gegen- des Anwendungssystem angeben) wurden als überstehen als Wenignutzende. Dies gilt aus- „Wenignutzende“ definiert. In der folgenden Ta- nahmslos für alle erfragten Datenquellen. Be- belle sind die Mittelwerte für die Zustimmung zu sonders starke Differenzen zwischen den bei- den Statements aus Abbildung 5 im Gruppen- den Gruppen gibt es bei den Informationsquel- vergleich abgetragen. Die Werte können zwi- len, die generell schon die höchste Zustimmung schen 1 und 5 liegen, wobei ein hoher Wert für erfahren (siehe Abbildung 4). So beurteilen eine Zustimmung für das jeweilige Statement Vielnutzende vor allem den Einbezug von Da- und ein niedriger Wert für eine Ablehnung des ten über eigene Interessen und Hobbies, den Statements steht. Die Sternchen kennzeichnen eigenen Konsum, aber auch des Geschlechts einen signifikanten Unterschied zwischen den auffällig besser als Wenignutzende, während beiden Gruppen; das heißt, dass gefundene der Mittelwertunterschied (die Differenz zwi- Unterschiede zwischen beiden Gruppen mit ho- schen den Mittelwerten von Wenignutzenden her Wahrscheinlichkeit auch in der Grundge- und Vielnutzenden) bei Beurteilungen zu sexu- samtheit (Deutsche Bevölkerung ab 18 Jahren, eller Orientierung oder persönliche Kontakte recht gering ausfällt. Tabelle 1: Haltung zum Einbezug verschiedener Daten nach Nutzungshäufigkeit Wie finden Sie es, wenn algorithmische Empfehlungssys- Wenignutzende Vielnutzende teme Informationen… …über Ihre Interessen und Hobbies einbeziehen? * 2,18 2,81 …über Ihr Alter und Geschlecht einbeziehen? * 1,97 2,48 …über Ihre sexuelle Orientierung einbeziehen? * 1,33 1,59 …über Ihr Einkommen oder Ihren Beruf einbeziehen? * 1,47 1,83 …über Ihren aktuellen Aufenthalts- oder Wohnort einbezie- 1,79 2,20 hen? * …zu Ihrem bisherigen Konsum einbeziehen? * 2,12 2,62 …über Ihre persönlichen Kontakte einbeziehen? * 1,35 1,64 …über das Konsumverhalten Ihrer persönlichen Kontakte 1,45 1,68 einbeziehen? * Anmerkung: N=948-977, * kennzeichnen signifikante Mittelwertunterschiede zwischen den beiden nach Design-Based t-Tests mit Signifikanzniveau p
Meinungsmonitor Künstliche Intelligenz Factsheet Nr. 5 - Mai 2021 Zusammenfassung Algorithmische Empfehlungssysteme werden Wahrnehmung der Leistungsfähigkeit und po- in Deutschland breit genutzt. Nur vier Prozent tenzieller Konsequenzen für individuelles Ver- der deutschen Bevölkerung, die zumindest ge- halten. Eine ausführlichere wissenschaftliche legentlich online ist, hat bisher keinerlei Erfah- Auseinandersetzung mit diesen Phänomenen rungen mit solchen Systemen gemacht. Umso steht aus. dringender erscheint es, die Meinungsbildung der Bürger*innen zu diesen Systemen zu ver- Das Gros der Befragten bezweifelt die Vertrau- stehen und nachzuzeichnen. enswürdigkeit algorithmischer Empfehlungs- systeme und beklagt einen Mangel an Transpa- Unsere Ergebnisse zeigen, dass Onliner algo- renz. Darüber hinaus wird die Verwendung pri- rithmische Empfehlungen zwar grundsätzlich vater Daten zur Errechnung individualisierter als nützlich erachten (Abb. 2), die detaillierte Empfehlungen von der großen Mehrheit der Nachfrage aber offenlässt, worin diese Nütz- Befragten stark abgelehnt. Das deutet auf eine lichkeit genau besteht (Abb. 3). Die Hoffnung verbreitete Unkenntnis der Grundlagen solcher auf zutreffende Empfehlungen, Orientierung Systeme hin, die ohne Massendaten über Kon- oder effizienteres Entscheiden erfüllen sich je- sum- und Suchverhalten überhaupt nicht funk- denfalls in der Mehrzahl aller Fälle nicht. Inso- tionieren könnten. weit muss hier offenbleiben, worauf der wahr- genommene Nutzen im Einzelfall beruht. Ob- Für Unternehmen, den Verbraucherschutz oder gleich wir nicht für jedes einzelne System nach politische Regulatoren zeigen unsere Ergeb- der Beurteilung von Orientierungsfunktion und nisse, dass ein mündiger Konsument allein Zeitersparnis gefragt haben, erstaunt es, dass nicht ausreicht. Die konsequente Stärkung der Effektivität und Effizienz algorithmischer Emp- ethischen Gestaltung und Qualitätsverbesse- fehlungssystemen im Schnitt eher geringge- rung algorithmischer Empfehlungssysteme im schätzt werden. So bleibt der zunächst para- Sinne der Ethikrichtlinien, wie sie von der Euro- doxe Befund einer verbreiteten Nutzung sol- päischen Kommission und der Bundesregie- cher Systeme, bei gleichzeitig skeptischer rung formuliert wurden, muss stärker umge- setzt werden. Literatur Abdollahi, B., & Nasraoui, O. (2018). Transparency in Fair Machine Learning: the Case of Explainable Recommender Systems. In J. Zhou & F. Chen (Eds.), Human–Computer Interaction Series. Hu- man and Machine Learning (Vol. 44, pp. 21–35). Cham: Springer International Publishing. https://doi.org/10.1007/978-3-319-90403-0_2 Cummings, M. (2004). Automation Bias in Intelligent Time Critical Decision Support Systems. In AIAA 1st Intelligent Systems Technical Conference (p. 101). Reston, Virigina: American Institute of Aer- onautics and Astronautics. https://doi.org/10.2514/6.2004-6313 Dietvorst, B. J., & Bharti, S. (2020). People Reject Algorithms in Uncertain Decision Domains Be- cause They Have Diminishing Sensitivity to Forecasting Error. Psychological Science, 31(10), 1302–1314. https://doi.org/10.1177/0956797620948841 Dietvorst, B. J., Simmons, J. P., & Massey, C. (2015). Algorithm aversion: People erroneously avoid algorithms after seeing them err. Journal of Experimental Psychology. General, 144(1), 114–126. https://doi.org/10.1037/xge0000033 European Commission (2020). White Paper on Artificial Intelligence - A European approach to excel- lence and trust. Verfügbar unter https://ec.europa.eu/info/sites/info/files/commission-white-paper- artificial-intelligence-feb2020_en.pdf Ein Projekt von: Gefördert durch:
Meinungsmonitor Künstliche Intelligenz Factsheet Nr. 5 - Mai 2021 Kieslich, K., Starke, C., Dosenovic, P., Keller, B., & Marcinkowski, F. (2020). Artificial Intelligence and Discrimination.: How does the German public think about the discrimination potential of artificial intelligence? (Meinungsmonitor Künstliche Intelligenz. [Opinion Monitor Artificial Intelligence].). Verfügbar unter https://www.cais.nrw/en/factsheet-2-ai-discrimination/ Kokolakis, S. (2017). Privacy attitudes and privacy behaviour: A review of current research on the pri- vacy paradox phenomenon. Computers & Security, 64(8), 122–134. https://doi.org/10.1016/j.cose.2015.07.002 Logg, J. M., Minson, J. A., & Moore, D. A. (2019). Algorithm appreciation: People prefer algorithmic to human judgment. Organizational Behavior and Human Decision Processes, 151(10), 90–103. https://doi.org/10.1016/j.obhdp.2018.12.005 Zitierweise: Kieslich, K., Došenović, P., & Marcinkowski, F. (April, 2021). Algorithmische Empfehlungssysteme. Wie denkt die deutsche Bevölkerung über den Einsatz und die Gestaltung algorithmischer Empfehlungssysteme? Factsheet Nr. 5 des Mei- nungsmonitor Künstliche Intelligenz. Verfügbar unter https://www.cais.nrw/factsheet-5-ki-recommender/ Meinungsmonitor Künstliche Intelligenz Ansprechpartner: Kimon Kieslich, M. A. Email-Kontakt: memoki@hhu.de Website: cais.nrw/memoki Ein Projekt von: Gefördert durch:
Sie können auch lesen