Vertrauenswürdigkeit und Zuverlässigkeit digitaler Daten und Informationen
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
DiDaT Grobplanung zum Vulnerabilitätsraum (VR) 06 Vertrauenswürdigkeit und Zuverlässigkeit digitaler Daten und Informationen Sebastian Hallensleben (VDE), Roland. W. Scholz (Donau Uni Krems), Andreas Kaminski (HLRS Universität Stuttgart), Julio Lambing (VEZL) Inputs durch Dirk Helbing (ETH Zürich), Karl-Heinz Simon (CESR Universität Kassel), Malte Reissig (IASS), Dirk Marx (btu Cottbus), Sabine Thürmel (TU München) 1 Gegenstand, Ziele und Leitfrage man US-Politiker Worte in den Mund le- Fälschungen von Texten und Fotos sind gen kann. Entsprechend haben erste nicht neu – sei es in der Werbung, für Staaten und Unternehmen Maßnahmen politische Manipulationen, bei Betrü- gegen die Verbreitung solcher irrefüh- gereien oder für andere Zwecke. Wir render Videos ergriffen.2 Der politische haben uns darauf eingestellt, Texten Fokus überdeckt jedoch, dass die über- und Fotos mit gesunder Skepsis zu ragende Mehrzahl solcher Videos der- begegnen. Das gilt insbesondere im zeit eine neue Form nicht einvernehmli- digitalen Raum. cher Pornografie zeigen, bei denen computer-generierte Gesichter von Pro- Für Videos konnte man dagegen bisher minenten auf die Köpfe der Sexdarstel- annehmen, dass sie tatsächlich ein rea- ler geschnitten werden, mit Abermillio- les Geschehen zeigen. „Fälschungen“ nen von Zuschauern.3 Die allermeisten waren dort nur in engem Rahmen mög- der von solchen „morph porn“ betroffe- lich, beispielsweise durch geschicktes nen Personen sind öffentlich agierende Schneiden, eine falsche Zuordnung Frauen. Zunehmend sind aber auch oder den Einsatz eines professionellen vollkommen unprominente Frauen be- Filmstudios. Videos galten bisher als troffen. Die Fälschungen bergen also das weitgehend unbestechliche digitale nicht nur das Potential für privaten Ruf- Äquivalent des Augenscheins. Seit mord, Cyberstalking oder auch Identi- 2018 sind jedoch mit künstlicher Intelli- tätsdiebstahl eingesetzt werden zu kön- genz ausgestattete Werkzeuge (v.a. nen, mit verheerenden Folgen für die Deep Fake1) verfügbar, mit denen prak- Betroffenen.4 Sie demonstrieren auch tisch jedermann beliebige Video- und ihre Zugänglichkeit und Eignung für Audioaufnahmen fälschen kann. Mit den Einsatz in Alltagsauseinanderset- entsprechender Rechenleistung sind zungen, etwa bei der Fälschung von diese Fälschungen sogar in Echtzeit rechtlichen Beweisen. möglich, d.h. ein angeblicher Live- Fernsehauftritt einer prominenten Per- Gefälschte Videos sind also nur ein au- sönlichkeit kann während des Pro- genfälliges Symptom für die generellen gramms gesteuert werden. Die öffentli- neuen Möglichkeiten zur Fälschung von che Aufmerksamkeit ruht derzeit vor al- einflussreichen Informationen. Poltisch lem auf im WWW veröffentlichten Vi- einflussreicher waren bisher sogenann- deos, in denen demonstriert wird, wie te „Shallowfakes“, also mit einfachen Frankfurt a.M., 07.01.2020 1
Mittel gefälschte Videos.5 Auch über- Eine Flut falscher Informationen hat das zeugende „Fotos“ nichtexistenter Men- Potenzial, Fakten in der Wahrnehmung schen sowie glaubwürdige Texte lassen zu verdrängen. Dies geschieht nicht nur sich mittlerweile mit minimalem Auf- durch eine bewusste Entscheidung von wand in großer Menge und mit zahlrei- Rezipienten, dieser oder jener Infor- chen Stellschrauben generieren 6. Im mation eher zu vertrauen, sondern Einzelhandel sind Fake Reviews ein auch durch eine unbewusste Überlage- weitverbreitetes und ernsthaftes Phä- rung bereits abgespeicherten nomen der Konsumententäuschung.7 Wissens. 12 Parallel zu dieser technologischen Ent- Der hier verwendete Begriff „Vertrauen“ wicklung sinkt der Einfluss der traditio- zeigt den Kern der umrissenen Proble- nellen Massenmedien und ihrer Filter- matik an: Vertrauen in und Vertrauens- und Verifizierungsfunktion für Informa- würdigkeit von Informationen sind seit tionen. Sie können nur schwer mithal- jeher für Menschen eine notwendige ten mit der Dynamik der Online-Medi- und zugleich heikle Angelegenheit. Die en, in denen Inhalte, egal, ob echt oder Entwicklung der Informationstechnik im gefälscht, können sich rasend schnell Zeitalter der neuen sozialen Medien verbreiten, teilweise gezielt vorange- und der künstlichen Intelligenz hat die trieben durch kommerzielle Dienst- generelle Zeugenschafts- und Vertrau- leister8. Die Werbewirtschaft und man- ensproblematik verschärft. (Siehe: Be- che politischen Akteure haben sich be- griffliche und epistemologische Einord- reits auf diese neuen Verbreitungsmög- nung von Vertrauen). Es stellt sich die lichkeiten eingerichtet. Über gezielte Frage: Wie können die Zuverlässigkeit Einflussnahmen beispielsweise der rus- digitaler Informationen sowie IT- sischen Internet Research Agency gestützte Vertrauensinfrastrukturen in (IRA)9 sowie Wahlmanipulation durch naher Zukunft in Deutschland so gestal- Cambridge Analytica10 ist ausführlich tet werden, dass ein fakten- und werte- berichtet worden. In Gabun und Malay- basierter öffentlicher, wissenschaftli- sia spielten Vorwürfe zum Einsatz von cher und politischer Diskurs möglich Deep Fakes eine relevante Rolle in bleibt, um eine Disruption der Grund- schweren politischen Krisen.11 lagen von Demokratie und Rechtsstaat zu verhindern? Leitfrage und inhaltliche Abgrenzung von VR6 Wie können die Zuverlässigkeit digitaler Informationen sowie IT-gestützte Vertrauens- infrastrukturen in naher Zukunft in Deutschland so gestaltet werden, dass ein fakten- und wertebasierter öffentlicher, wissenschaftlicher und politischer Diskurs möglich bleibt, um eine Disruption der Grundlagen von Demokratie und Rechtsstaat zu verhindern? Wie sieht eine Kombination aus sozialen und technischen Ansätzen aus, die eine Verifizierung von Fakten unterstützt? Wie kann auch künftig mündige politische Meinungsbildung ablaufen? Welche Anreizsysteme können vorgeschlagen werden, mit denen Wahrheits- findung und -verbreitung präferiert werden? Wie lassen sich kluge Netze des Vertrauens knüpfen? Wie kann dies auf angemessene Weise technisch unterstützt werden? Frankfurt a.M., 07.01.2020 2
Begriffliche und epistemologische Einordnung von Vertrauen Die Philosophin Annette Baier hat als Arbeitsdefinition vorschlagen, Vertrauen als akzeptier- te Verletzbarkeit zu begreifen(1). Folgt man diesem theoretisch einflussreichem Vorschlag, muss eine Analyse des hier untersuchten Vulnerabilitätsraums berücksichtigen, dass Men- schen einerseits auf elementare Weise, die Möglichkeit verletzt zu werden, nicht vermeiden können, dass sie anderseits jedoch lernen können und müssen, auf angemessene Weise Vertrauen zu gewähren oder zu entziehen. Die allgemeine Problematik von Vertrauen und Zeugenschaft Auf den ersten Blick mag die Annahme naheliegen, dass in modernen Gesellschaften die Bedeutung von Vertrauen abnimmt: Es könnte so scheinen, als ob Verwissenschaftlichung und Technisierung Vertrauen ablösten. Man muss und braucht anderen nicht zu vertrauen, weil man durch Technik und Wissenschaft Transparenz- und Kontrollmöglichkeiten gewon- nen hat, die an die Stelle von Vertrauen treten. Doch bereits Gründerfiguren der Soziologie wie Max Weber und Georg Simmel waren anderer Meinung: Technik und Wissenschaft selbst vergrößern die Abhängigkeit des Einzelnen von den Leistungen anderer, was den Vertrauensbedarf erhöht. Diese Abhängigkeit von anderen wird besonders deutlich und relevant im Bereich von In- formation und Wissen. Das meiste, von dem wir annehmen, dass wir es wissen, haben wir durch Andere erfahren: dass es Bakterien gibt und einige davon unserer Gesundheit ab- träglich sein können; dass die Erde keine Scheibe ist und um die Sonne zirkuliert; wie weit Stuttgart und Frankfurt entfernt sind und wann der nächste Zug abfahren soll; welche Partei bei der letzten Wahl gewonnen hat, wer sie gewählt hat und wer jetzt die Regierung stellt. Selbst wann und wo wir geboren wurden wissen wir nicht qua eigener Erkenntnis. Die Vertrauenswürdigkeit von Informationen ist eng verwoben mit dem erkenntnisbezoge- nen (epistemischen) Abhängigkeit von Anderen. Der klassische Wissensbegriff der Philosophie geht davon aus, dass Wissen eine (a) Überzeugung ist, die (b) wahr, zusätzlich aber (c) gerechtfertigt sein muss – man muss gute Gründe für die Überzeugung haben, da- mit man einen Wissensanspruch erheben darf, eine Überzeugung darf nicht bloß zufällig wahr sein. Dass Andere eine mögliche Quelle und Begründung eigener Wissensansprüche sind, ruft folgende Frage auf: Wie begründen und rechtfertigen wir es (c), dass wir etwas zu wissen glauben, weil Andere es uns gesagt haben – oder anders ausgedrückt: weil Andere es bezeugt haben. Es ist nun eine offene Frage, wie wir (c) auffassen können. Eine mögliche Begründung, die aber vieles offen lässt, ist die folgende Antwort: Wir können einem Sprecher glauben, wem wir ihm vertrauen. Das damit aufgeworfene Problem können wir als Zeugenschafts- und Vertrauensproblem bezeichnen. Das allgemeine Problem lässt sich durch die Frage aus- drücken: Wann sind wir darin gerechtfertigt, den Anderen zu glauben? Wann sind wir darin gerechtfertigt, den Anderen zu vertrauen, wenn sie etwas behaupten? Problemverschärfung durch die Digitalisierung der Gesellschaft Die ohnehin bestehende, alltäglich aufscheinende Problematik von Zeugenschaft und Ver- trauen verschärft sich durch die Digitalisierung der Gesellschaft, insbesondere durch die Entwicklung und alltägliche Verbreitung des Internets. Wir erhalten erstens viel mehr In- formationsangebote aus zweitens mehr möglichen Quellen, die wir nicht persönlich kennen, zu drittens Themen, bei denen wir häufig weniger Möglichkeiten haben, sie durch eigene Erfahrung kritisch zu prüfen. Zudem scheint die Digitalisierung der Kommunikation neue Möglichkeiten ihrer Manipulation zu eröffnen. Ein Beispiel hierfür ist die auf Daten und Algo- rithmen basierte Selektion von Nachrichten, ein anderes Beispiel die erwähnten Deep Fake Videos. Sie verschärfen die allgemeine Frage, wann wir darin gerechtfertigt sind, Anderen zu glauben. Denn wir sind in mehr Themen, die für uns relevant sind, abhängig von dem, was (relativ anonyme) Andere uns mitteilen. Und die technischen Möglichkeiten der Mani- pulation scheinen gewachsen zu sein. (1) Annette Baier (1986): Trust and Antitrust; in: Ethics; Vol. 96, No. 2 (Jan., 1986); S. 231-260; S. 235 Frankfurt a.M., 07.01.2020 3
Anders gefragt: Wie lassen sich kluge jekts kann und soll jedoch herausgear- Netze des Vertrauens knüpfen? Wie beitet werden, inwieweit sich Lösungen kann dies auf angemessene Weise auch als Impulse bzw. Piloten für Europa technisch unterstützt werden? (im Sinne der Europäischen Union) eig- nen. Die Fragestellung des Vulnerabili- tätsraums wird also in mehrfacher Drittens soll hier nicht jede Form von Hinsicht thematisch eingrenzt: Fälschung bei der Übermittlung von In- Selbstverständlich besteht die Möglich- formationen betrachtet werden. Krimi- keit, dass durch die Digitalisierung ver- nelle Angriffe auf die Datenübertragung anlasste Schwächung der Vertrauens- bei Geldüberweisungen, der Übermitt- würdigkeit von Informationen auch öko- lung von Steuerungsbefehlen in der öf- nomische Effekte als Unseens hat, die fentlichen Stromversorgung oder der relevante Auswirkungen auf einzelne Koordination von öffentlichen und priva- Geschäftsbranchen oder auf Konsum- ten Transport können sicherlich eine gewohnheiten haben. (Siehe die Frage gewichtige Gefahr für eine Gesellschaft der Vertrauenswürdigkeit von Produkt- darstellen. Sie unterscheiden sich je- reviews.) Zur pragmatischen Beschrän- doch insofern von der hier geschilderten kung des Untersuchungsfelds sollte je- Thematik, als dass sie eine illegitime doch die Gefährdung von Demokratie Manipulation der Übermittlungskanäle und Rechtsstaat im Vordergrund ste- beinhalten und bestehende Informatio- hen. nen in der Übertragung durch falsche ersetzen. Solche Angriffe auf Daten- Auch eine geografische Eingrenzung ist übermittlungswege sind jedoch etwas aus pragmatischen Gründen geboten. anderes als Angriffe durch gefälschte In- Die bisher aufgezeigte Problemlage als formationen, die erst durch ihre Wahr- auch die im Abschnitt 2 dargelegten nehmung und ihre diskursive Ver- Vulnerabilitäten sowie die darauf ant- handlung in sozialen Räumen ihre wortenden, möglichen Lösungsansätze schädliche Wirkung erhalten. bestehen zwar global bzw. internatio- nal, zumindest insoweit als Onlinein- Andererseits liegt der Fokus von VR6 auf formationen und Onlinediskurs zugäng- der Information, unabhängig davon, wo lich sind und bereits eine signifikante sie im digitalen Raum vorliegt. In Ab- Rolle in Politik und Gesellschaft spielen grenzung zu VR05 betrachtet dieser Vul- (dies schließt lediglich einige wenige neabilitästraum also nicht (oder nur am geografisch abgelegene Räume aus). Rande) die Funktion und Struktur spezi- fischer Bereiche des digitalen öffentli- Angesichts der sich in der Stakeholder- chen Raums (z.B. Social Media, klassi- Analyse (Abschnitt 3) abzeichnenden sche Nachrichtenmedien, Plattformen Akteurskonstellation, der Sprachab- für nutzergenerierte Inhalte oder Fach- hängigkeit von Onlineinformationen so- publikationen), sondern abstrahiert zur wie der Jurisdiktionsbezogenheit von Lö- Information an sich sowie deren ur- sungsansätzen sollte zunächst Deutsch- sprünglicher Quelle. land, fallweise auch die DACH-Region betrachtet werden. Im Verlauf des Pro- Frankfurt a.M., 07.01.2020 4
2 Welche nicht intendierten, unbe- schen auch in Form einzelner Zwi- absichtigten Nebenfolgen sind von schenrufe an die breitere Öffentlichkeit Interesse und warum? gelangt ist.14 Traditionelle Massenmedien können Gefährdung des demokratischen zwar weiterhin versuchen, als Filter und Gemeinwesens als Konsequenz Prüfer zu agieren, sind aber der emotio- nalen Wirkung und der rasend schnel- Wenn selbst Videos überzeugend ge- len Verbreitung einer gefälschten fälscht werden können und damit die „Nachricht“ gegenüber machtlos. Sie letzte Bastion der Tatsachenprüfung können ihre Filterfunktion im extrem durch Augenschein fällt, dann sind beschleunigten Online-Nachrichtenfluss sämtliche Onlineinhalte fragwürdig. nur noch schwer oder verzögert aus- Wahrheit und Lüge werden un- üben. Gleichzeitig muss der Mensch unterscheidbar. Nicht nur gefälschte weiterhin die Einschätzung der Glaub- Informationen können für echt gehalten würdigkeit von Informationen teilweise werden, sondern auch echte Informatio- delegieren, da die Masse an Informati- nen können in Zweifel gezogen werden. on ansonsten nicht zu bewältigen wäre Der Politiker, der bei der Annahme von und der einzelne Mensch nicht so viele Bestechungsgeldern gefilmt wurde, sorgfältige Einzelbeurteilungen und kann solche Videobelege künftig pro- -entscheidungen treffen kann. blemlos als Fälschung abtun. Aviv Ova- dya hat für diese Entwicklung den Be- Wenn sich Wahrheit und Lüge für griff „Infokalypse“ geprägt,13 der inzwi- den Einzelnen aber nicht mehr mit Technische Lösungen zu Vertrauen im Spiegel der Theoriegeschichte Technische Lösungen, die Vertrauenswürdigkeit messen und zwischenmenschliche Vertrauen- sprozesse nachbauen und ersetzen sollen, las- sen sich vor dem Hintergrund der allgemeinen Theoriegeschichte von Vertrauen deuten. Es gibt aktuell zwei große Theorielinien, die einan- der widersprechende Antworten geben auf die Frage, wie begründet werden kann, dass man einer Person glaubt. Die eine Antwort lautet: Vertrauen hat epistemische Gründe. Die andere geht dagegen davon aus, dass Vertrauen nicht auf Gründe zurückgeführt werden kann, son- dern selbst ein Orientierung gebender Grund ist, etwas für wahr zu halten. Die erste Linie versucht die Zeugenschaft also ganz auf ein er- kenntnistheoretisches Problem zurückzuführen. Damit geht die Hoffnung einher, das ver- meintliche Wissen, das wir durch Andere gewinnen, auf unser eigenes Wissen zurückzufüh- ren. Wir beurteilen und bewerten die Vertrauenswürdigkeit aufgrund von ‘track records’ oder Indikatoren, die wir aufgrund unserer eigenen Erfahrung gewonnen haben. Diese Linie be- ginnt bei David Hume, führt über Psychologen wie William Stern oder Hugo Münsterberg bis zu den technischen Entwicklungen der jüngsten Zeit. Der Grundgedanke der so genannten Evidential View ist: Man muss Evidenz gewinnen, auf deren Grundlage man sich dann für oder gegen Vertrauen entscheidet. Die Evidenz zeigt an, ob eine Person oder Information ver- trauenswürdig ist. Der Grad der Evidenz führt zu einem Grad an Wahrscheinlichkeit der Ver- trauenswürdigkeit. Frankfurt a.M., 07.01.2020 5
realistischem Aufwand trennen las- regen, besteht ein hoher Anreiz für sen, dann ist das Konstrukt des Plattformen, diese besonders promi- „mündigen Bürgers“ bzw. einer nent anzuzeigen. Gefälschte In- „mündigen Gesellschaft“ als Aus- formationen können genau dieses Mus- gangspunkt aller staatlichen Ge- ter besonders einfach bedienen und walt (nach Art. 20, Abs. 2 des deut- verbreiten sich daher besonders leicht. schen Grundgesetzes) faktisch un- Die skizzierten unerwünschten Entwick- möglich geworden. Das demokra- lungen lassen sich unter folgenden tische Gemeinwesen verliert seine Überschriften diskutieren: Grundlage. Die Auseinandersetzung mit der Vertrauenswürdigkeit von In- Desorientierung formationen im digitalen Raum wird so Gefährdung des sozialen Zusammen- zur dringlichen Notwendigkeit. halts und demokratischen Systems Neben der Gefährdung demokratischer Machtverschiebungen im öffentli- Systeme durch die informationelle Ent- chen Diskurs mündigung des Bürgers sind weitere Gefährdung von Beweisverfahren schwerwiegende Folgen realistisch: Die (polizeiliche Ermittlungen, Gerichts- Zuverlässigkeit polizeilicher Untersu- entscheidungen) chungen oder die rechtsstaatliche Gül- Es wäre im VR6 außerdem zu klären, tigkeit von Gerichtsprozessen kann welche positiven Entwicklungen möglicherweise durch die ausgeweitete den nicht-intendierten und unbeabsich- Fälschbarkeit von Informationen nur tigten Nebenfolgen möglicherweise ge- noch eingeschränkt gewährleistet wer- genüber stehen, differenziert nach ver- den. Die Öffentlichkeit vertraut dem schiedenen Nutzergruppen (Entwickler, staatliche Rechtssystem nicht mehr. Fi- Medien, Rezipienten). Eine explizite Be- nanzmärkte können aufgrund Fehlin- schreibung der intendierten Folgen (be- formationen, deren Falschheit sich nur nefits) sollte den unseens gegenüber schwer und zeitlich deutlich verspätet gestellt werden. Benefits könnten etwa nachweisen lässt, bisweilen so manipu- sein: eine neue Form von Öffentlichkeit liert werden, dass die Auswirkungen auf und Kommunikationsintensivierungen die Weltwirtschaft massiv sind etc. mit Folgen für sozialen Zusammenhalt, usw; auf technischer Seite die mögli- Verschärft wird die Situation durch cherweise günstigere Film-, Bild und kommerzielle Anreize, denn für On- Audioproduktion; in künstlerischer Hin- lineinhalte dominiert als Geschäftsmo- sicht die Entwicklung von neuen Aus- dell die Werbefinanzierung. Dies führt drucksformen, Stilmitteln oder gar gan- dazu, dass die Auswahl und Darstellung zen Kunstgattungen in den darstellen- von Inhalten allein auf eine hohe Auf- den wie bildenden Künsten.16 merksamkeit der Nutzer (z.B. ge- messen durch Klicken oder Teilen) ge- Bei der Frage wie wir den hier skizzier- richtet ist.15 Da extreme und/oder emo- ten Vulnerabilitäten begegnen, muss tional erschütternde Nachrichten eine das besondere Verhältnis zwischen Ver- besonders hohe Aufmerksamkeit er- trauen, Verletzlichkeit und Technik be- Frankfurt a.M., 07.01.2020 6
achtet werden. Wenn wir Vertrauen als 3 Welche Stakeholder sind für ein akzeptierte Vulnerabilität verstehen Verständnis und ein Management (siehe Begriffliche und epistemologi- der Unseens von besonderer Be- sche Einordnung), stellt sich die Frage, deutung? Welche wissenschaft- ob ein auf den ersten Blick eventuell lichen Wissensbereiche sind rele- naheliegendes Ziel, Vulnerabilität kom- vant? plett zu eliminieren, tatsächlich sinnvoll Die Auswahl der Akteure kann sich am und/oder wünschenswert wäre. Raster der unter Punkt 4) skizzierten Für viele Akteure in der digitalen Welt Perspektiven orientieren und entspricht scheinen Vertrauensprobleme durch der im Gesamtprojekt DiDaT angeleg- technische Anwendungen lösbar. Aktu- ten und transdisziplinären Paarung von ell werden diverse Technologien entwi- Wissenschaft und Praxis. Experten zur ckelt oder angeboten, die von dieser An- Bearbeitung der Fragestellungen könn- nahme auszugehen scheinen: ten aus folgenden Bereichen kommen (wobei angesichts der Gruppengröße Facebook will die Vertrauenswürdigkeit von 12 Personen Akteure mit übergrei- seiner Nutzer messen. Journalistische fendem Fachwissen bzw. mehrfachen Recherchenetzwerke wollen algorith- Rollen bevorzugt sind): menbasiert die Glaubwürdigkeit von Nachrichten prüfen. Im Rahmen eines Schwerpunkt technische Perspekti- von der EU geförderten Forschungspro- ve: Experten für Künstliche Intelli- jekts (iBorderctrl) wird unter anderem genz, Deep Fakes, IT-Sicherheit, ein KI-basierter Lügendetektor entwi- Zertifikatswesen, auch Daten- ckelt, der in drei Staaten (Griechenland, wissenschaftler/ Bibliothekare Lettland, Ungarn) getestet wird. Er soll Schwerpunkt gesellschaftliche Per- die Vertrauenswürdigkeit von Personen, spektive: Publizisten wie Journalis- die in die EU einreisen wollen, messen ten, Verlagsinhaber, Blogger, und prüfen. Lange schon werden im Medienwissenschaftler; Juristen für Rahmen von Computersimulationen so Internetrecht, Datenschützer, Nor- genannte trust games durchgeführt, mungsspezialisten; auch Politiker die die Erfolgsträchtigkeit unterschiedli- cher Vertrauensstrategien messen. Ent- Schwerpunkt philosophische Per- sprechendes zeichnet sich bereits auch spektive: Wissenschafts- und Tech- für das hier beschriebene Phänomen nikphilosophen; Sozialtheoretiker ab.17 Schwerpunkt ökonomische Perspek- Allerdings muss genau geprüft werden, tive: Wirtschaftswissenschafter; Ak- in welcher Hinsicht solche technischen teure im Online Marketing, Product Werkzeuge beim Aufbau von klugen Information Management, Content- Netzen des Vertrauens hilfreich sind. Plattformen, Anbieter von IT-Hard- ware und Software, die Verifizie- rungsprobleme lösen Frankfurt a.M., 07.01.2020 7
Darüber hinaus ist die Einbindung von Stakeholdern denkbar, die Auskunft zu teilweise analogen Problem- und/oder Lösungsfeldern geben können. Die Par- allelen zwischen einem „verschmutzten Informationsökosystem“ und der Ver- schmutzung unserer natürlichen Um- welt liegen nahe. Interessante Impulse könnten aber auch aus den Wirtschafts- wissenschaften oder aus Buchhaltungs- regularien (Basel III etc.) kommen, wo Systeme von jeher auf Resilienz gegen- über nicht gutwilligen Akteuren ausge- richtet werden. Auch eine historische Betrachtung ins- besondere von politischer Propaganda und Gegenmaßnahmen in unterschied- lichen Ländern und Gesellschaftssyste- men wäre hilfreich und sollte idealer- weise als Kompetenz im Kreis der Ak- teure vertreten sein. Es ergibt sich folgende Matrix von Vul- nerabilitäten und Stakeholdern. Dabei wird unterschieden zwischen Stakehol- dern, die von einer Vulnerabilität be- sonders betroffen sind (B), und Stake- holdern, die diese Vulnerabilität lösen können (L), wobei diese Einordnung nur eine grobe Orientierung sein kann: Frankfurt a.M., 07.01.2020 8
Frankfurt a.M., 07.01.2020 9
Die Aporien der epistemisch-technischen Lösung Der den technischen Lösungen des Vertrauensproblems zugrundeliegende Vertrauensbe- griff geht von folgenden Annahmen aus. Vertrauen (wie Vertrauenswürdigkeit) wird dem- nach begriffen als: (1) quantifizierbar: Es handelt sich um eine durch einen Wahrscheinlichkeitsbegriff ar- tikulierbare Größe. (2) begründet: Vertrauen beruht auf Gründen, die für die Vertrauenden als evident gel- ten. Diese Evidenz geht auf Informationen zurück. (3) kognitive Erwartung: Vertrauen geht daher mit einer kognitiven Erwartung einher. Kognitive Erwartungen unterscheiden sich von normativen u.a. dadurch, dass sie im Enttäuschungsfall aufgegeben werden, mit anderen Worten: Es wird gelernt. (4) epistemische Beziehung: Die andere Person kommt darin nicht als Person vor. Denn eigentlich vertraue ich nicht ihr, sondern meinem Erkenntnisvermögen. Diese Annahmen sind zwar grundsätzlich nicht falsch, führen jedoch in der vorliegenden Form zu Aporien. Wenn Evidenz, wie Annahme (2) besagt, unabhängig von Vertrauen ist, kann man auf der Grundlage der richtigen Evidenz (Information) eine vernünftige Entschei- dung treffen zu vertrauen oder zu misstrauen. Genau diese Unabhängigkeit ist in den meis- ten Fällen jedoch nicht gegeben. Wir betrachten nämlich umgekehrt eine uns präsentierte Evidenz (Information) im Licht von Vertrauen und Misstrauen. Es stellt sich daher ein zirku- läres Verhältnis zwischen Evidenz/Informationen und Vertrauen ein. Diesen Zirkel kann man nicht vermeiden, man kann nur mit ihm besser oder schlechter umgehen. Die Annahme, das Vertrauensproblem sei technisch lösbar, ignoriert diesen Zirkel. Gehen wir dazu zu der Annahme zurück, die Vertrauenswürdigkeit einer Information lasse sich evi- dentiell durch eine Technik messen. Selbst wenn dies der Fall wäre, bestünde das Problem, dass man dazu dieser Technik bzw. ihren Entwicklern vertrauen müsste. Man kann also nicht aus der Abhängigkeit von anderen und damit aus dem Zirkel aus Evidenz und Vertrau- en herausspringen. Daher ist auch die Vorstellung, Fake News ließen sich einfach als solche technisch identifizieren und aus der Welt schaffen, fraglich. Keine Per- son, die glaubt, dass eine Regierung Informationen unterdrückt und ihre Bürgerinnen und Bürger gezielt desinformiert, wird sich durch eine von diesem Staat (oder von staatlich ab- hängigen Institutionen) entwickelten Technologie darüber 'aufklären' lassen, dass dies nicht der Fall ist. Ein soziotechnisches Problem – eine soziotechnische Lösung Das Problem muss also differenzierter begriffen und angegangen werden. Es trifft zwar zu, dass es sich auch um ein technisches Problem handelt; jedoch lässt es sich darauf nicht re- duzieren. Daher ist auch die Lösung nicht rein technisch zu erzielen. Für die Erarbeitung von Lösungsansätzen muss davon ausgegangen werden, dass es sich um eine ebenso ge- sellschaftliche wie technische Aufgabe handelt. Techniken müssen demgemäß zwar einge- setzt oder gar neu entwickelt werden; diese können (in der Regel) das Vertrauensproblem jedoch nicht lösen, sondern uns lediglich dabei unterstützen, eine Urteilskraft auszubil- den, um angemessen zwischen vertrauenswürdigen und nichtvertrauenswürdigen Personen und Aussagen zu unterscheiden. Dazu muss Vertrauen jedoch in einem Praxiszusammen- hang begriffen werden, der sich daran zeigt, dass man in der Regel einer Person oder Insti- tution geneigt ist zu vertrauen, weil man anderen Personen oder Institutionen vertraut, die ihr vertrauen. Es gibt mit anderen Worten Netze des Vertrauens. Die Frage, wie wir die Vertrauenswürdigkeit und Zuverlässigkeit digitaler Daten und Informationen sichern, ist also im Kern eine Frage danach, wie sich kluge Netze des Vertrauens knüpfen lassen und wie dies auf angemessene Weise tech- nisch unterstützt werden kann. Frankfurt a.M., 07.01.2020 10
4 Methodische Überlegungen zur Wirtschaft (vgl. vorherigen Abschnitt) Unterstützung von Kernaussagen soll von Anfang an einen lebendigen Austausch von Wissen und die Generie- Zur Erarbeitung möglicher Antworten rung möglicher Lösungselemente er- durchdringen wir gleichzeitig vier Per- möglichen. Gleichzeitig wird es dadurch spektiven und führen sie zusammen: möglich, die Folgen der aktuellen tech- 1.Technische Perspektive: nischen und gesellschaftlichen Entwick- Was ist technisch machbar (jetzt oder lungen breitgefächert und konsequent in naher Zukunft)? zu Ende zu denken, ggf. mithilfe von Szenariotechniken. Dadurch wird zu- 2.Gesellschaftliche, politische und sätzlicher Handlungsdruck aufgebaut rechtliche Perspektive: und ein späterer Ergebnistransfer vor- Was findet Akzeptanz? Was ist natio- bereitet. nal/international wünschenswert, re- gulierbar und durchsetzbar? An wel- Die Wirksamkeit und Sinnhaftigkeit von che Institutionen kann dies geknüpft Lösungsansätzen soll anhand einer Rei- werden? he frühzeitig definierter Test Cases ge- prüft werden. Jeder Test Case be- 3.Philosophische Perspektive: schreibt eine – bereits beobachtete Welche Antworten sind hinsichtlich oder auch konstruierte – problema- des von ihnen vorausgesetzten Ver- tische Situation, für die der Effekt eines ständnisses von Vertrauen/Vertrau- Lösungsansatzes durchgespielt werden enswürdigkeit, Wahrheit/Unwahrheit, kann. – Beispiele: „Der gewählte Präsi- Realität/Fiktion, Gewissheit, Bezeu- dent eines einflussreichen Landes be- gung/Zeugenschaft, Wahrnehmung, streitet offensichtliche Fakten und er- Geltung, Legitimation und Beweis so- mutigt Gewalt gegen kritische Journalis- wohl kohärent als auch anschlußfähig ten“ oder „Ein Massenmedium stellt rei- an die etablierte Sprachverwendung ßerische ‚Nachrichten‘ ohne Rücksicht der medialen und politischen Öffent- auf deren Wahrheitsgehalt in den Vor- lichkeit? dergrund, um Aufmerksamkeit und 4.Ökonomische Perspektive: Werbeeinnahmen zu generieren“ oder Was ist finanzierbar, disseminierbar „Ein bestechlicher Politiker bestreitet oder langfristig lohnend? die Echtheit von Videodokumenten und Es gilt die Hypothese, dass die grund- lässt gleichzeitig ein falsches Video sei- sätzlichen IT-Voraussetzungen zur Be- nes politischen Gegners herstellen und antwortung der Leitfragen im Wesentli- streuen, in dem diesem abstoßende chen bereits vorhanden sind und nicht Aussagen in den Mund gelegt werden“ im Rahmen des Projekts entwickelt oder oder „Ein repressives Regime unter- gefordert werden müssen (siehe dazu drückt eine unabhängige Presse mit der Abschnitt 1). Behauptung, sie würde ‚fake news‘ ver- breiten“. Die Kombination eines ungewöhnlich breiten Spektrums von Akteuren aus Mit der Formulierung von Test Cases Gesellschaft, Medien, Wissenschaft und wird frühzeitig ein Rahmen für die ge- Frankfurt a.M., 07.01.2020 11
meinsame Arbeit und Diskussion ge- Ökosysteme (Google, Apple), Datenöko- setzt und ein Konsens zum Zielkorridor systeme im Industrie-4.0-Bereich (z.B. hergestellt. Bosch IOTA), Zertifikatökosysteme (SSL klassisch bzw. mit CaCERT), Digitale Bedarf für Vertiefungsforschung Währungen oder Peer-to-Peer-Dateiaus- Es ist unklar, wie eine Infrastruktur für tausch-Ökosysteme (z.B. BitTorrent). eine breit anerkannte, nicht staatlich Sinnvolle Unterstützung können auch beeinflusste Zertifizierung von Informa- Forschungen zur gesellschaftlichen Wir- tionsquellen technisch aussehen könn- kung von Deep Fake-Videos sowie zur te, insbesondere durch Reputationsträ- Evolution von Nachrichten im Internet ger und Autoritäten, die nicht bereits liefern. als „Marken“ aus dem Offline-Bereich bekannt sind. Die Vergabe von SSL-Zer- 5. Erwartete Ergebnisse und Fol- tifikaten für elektronische Signaturen geinitiativen kann ein Ausgangspunkt der Überle- Im Rahmen des Vulnerabilitäts- gungen sein, ist aber nur begrenzt raums „Vertrauenswürdigkeit von übertragbar und hat zahlreiche Schwä- Informationen im digitalen Raum“ chen. Wichtig ist auch, dass eine an- erarbeiten wir im inter- und trans- onyme (bzw. irreversibel pseudonyme) disziplinären Dialog konsensfähige Kommunikation möglich bleibt. Zur Er- und praktikable Antworten auf die arbeitung und prototypischen Demon- oben beschriebenen Herausforde- stration technisch realisierbarer Vor- rungen. schläge sollte Vertiefungsforschung im Umfang von 1 Personenjahr einge- Mögliche Fragestellungen: Wie kön- plant werden. nen wir Informationsökosysteme so ge- stalten, dass ein faktenbasierter gesell- Dies kann auf insg. 1,5 Personenjah- schaftlicher, wissenschaftlicher und re aufgestockt werden, um mehrere In- politischer Diskurs möglich bleibt? Wie formationsökosysteme parallel zu be- sorgen wir dafür, dass ein Dialog und trachten und Infrastrukturlösungen zu- eine ggf. auch mühsame Konsensfin- erarbeiten. Infrage kommen Informati- dung attraktiver bleiben als das Verhar- onsökosysteme wie die klassischen ren auf extremen Positionen? Welche Nachrichtenmedien, Plattformen für Anreize für die Wahrheitsfindung und nutzergenerierte Inhalte (Twitter, Face- -verbreitung können wir schaffen? Wie book, YK, Wordpress, Medium etc.) so- kann auch künftig mündige politische wie Fachpublikationen (auch in der Meinungsbildung ablaufen? Wissenschaft). Es können überdies wei- tere Ökosysteme herangezogen wer- Erste Arbeitshypothesen: Als Gerüst den, um technologische Eigenschaften für erwartete Ergebnisse, zur Planung und Regulierungsmechanismen zu ver- der Akteursauswahl sowie für die er- stehen und ggf. durch Analogieschlüsse sten Dialogschritte im Vulnerabilitäts- Handlungsmöglichkeiten für die Infor- raum dienen die folgenden Arbeitshy- mationsökosysteme zu identifizieren. pothesen zur Gestaltung des künftigen Beispiele für dieses Umfeld sind App- digitalen Raums: Frankfurt a.M., 07.01.2020 12
1. Bisherige primär technologische Ge- zeuge zur elektronischen Verschlüs- genmaßnahmen gegen Fake News selung und Signierung sind seit vie- wie die KI-gestützte Untersuchung len Jahren verfügbar und mathema- von Videos oder die internen Netz- tisch abgesichert. werkaktivitätsanalysen großer Inter- 5. Die Auseinandersetzung „Anonymität netplattformen sind letztlich nur ein vs. Pseudonymität vs. Klarnamen“ im Wettrüsten mit immer besseren Fäl- Netz ist ein künstlich konstruierter schungswerkzeugen und –methoden Konflikt. Jeder der drei Ansätze ist in und daher bestenfalls eine partielle bestimmten Kontexten sinnvoll und Lösung. muss für Menschen zugänglich sein. 2. Das Vertrauen in Informationen fußt Die Verantwortlichkeit für eigene In- fast immer auf dem Vertrauen in die halte ebenso wie für das Teilen von Person/Institution, die sie verbreitet. Fremdinhalten muss neu gedacht Die Mechanismen zur Genese dieses werden. Vertrauens (z.B. Andocken an den Au- 6. Der Nachweis einer Lüge genügt genschein in der realen Welt, Trans- nicht. Gesellschaftliche Konventionen fer, Crowdansätze etc.) sollten daher und andere Faktoren bestimmen den einen Schwerpunkt bilden. Die Frage Umgang mit ertappten Lügnern (vgl. ist, wie eine institutionelle Infrastruk- Trump vs. Relotius). Vgl. auch das tur des Vertrauens aussehen könnte. Phänomen „Reality Apathy“. Wir be- 3. Es ist nicht ausgeschlosssen, dass es nötigen eine pragmatische Auseinan- in einzelnen sozialen Handlungsberei- dersetzung zur Existenz „objektiver“ chen zukünftig mehr Sinn macht, Fakten oder einer objektiven Wahr- etablierte Beweisarten (z.B. Videobe- heit18 sowie der Frage, inwieweit weise) komplett zu ersetzen, d.h. al- Wahrheit tatsächlich gewollt ist, auch ternative Strategien zu entwickeln, mit Blick auf psychologische Me- die helfen, Fakten von Fiktionen zu chanismen. unterscheiden. 7. Gängige Geschäftsmodelle für Onlin- 4. Auf technischer und regulatorischer einhalte – vor allem die Werbefi- Seite erscheinen Maßnahmen wie nanzierung – stehen im Zielkonflikt bspw. Mechanismen und Standards mit Vertrauenswürdigkeit und müs- für die Rückverfolgbarkeit von In- sen vermutlich weiterentwickelt bzw. formationen (u.U. mit Offenlegungs- ersetzt werden; gleichzeitig ist zu er- pflichten für große Internetplattfor- warten, dass nicht alle Lösungsvor- men), eine Zertifizierung von Quellen schläge kommerziell tragfähig und und Kuratoren in Anlehnung an die stattdessen bspw. staatlich zu fi- etablierte Vergabe von SSL-Zertifika- nanzieren sind. Letzteres wirft wie- ten etc. überlegenswert. Blockchain derum die Frage auf, inwieweit diese und andere Technologien mit Notari- im Kontext repressiver Regime funk- atsfunktion können eine unterstüt- tionieren würden. zende Rolle spielen (z.B. für fäl- Diese Liste ist naturgemäß unvoll- schungssichere Fingerabdrücke und ständig und wird laufend verfei- Zeitstempel). Grundlegende Werk- nert und ergänzt. Frankfurt a.M., 07.01.2020 13
Endnoten: Deeptrace; September 2019; S. 11 f. [1] Melanie Ehrenkranz (2018): Researchers [6] Katyanna Quach (2018): An AI system has Come Out With Yet Another Unnerving, New just created the most realistic looking photos Deepfake Method; Gizmodo; 09.11. 2018; unter: ever; The Register; 14.12. 2018; unter: https://gizmodo.com/researchers-come-out-with- https://www.theregister.co.uk/2018/12/14/ai_cre yet-another-unnerving-new-de-1828977488 ated_photos/ (abgerufen am 20.11.2019) Man (abgerufen am 20.11.2019). Katyanna Quach beachte auch das eingebettete Video im Artikel. (2018): The eyes don't have it! AI's 'deep-fake' [7] Siehe die Recherchen der britischen vids surge ahead in realism; The Register; Consumers' Association im Verbrauchermagazin 11.09.2018; unter: Which? : Hannah Walsh (2019): Thousands of www.theregister.co.uk/2018/09/11/ai_fake_video ‘fake’ customer reviews found on popular tech s/ (abgerufen am 20.11.2019). Bloomberg LP categories on Amazon; Which?; 16.04.2019; (2016): It’s Getting Harder to Spot a Deep Fake www.which.co.uk/news/2019/04/thousands-of- Video; Youtube; 27.09.2018; unter: fake-customer-reviews-found-on-popular-tech- www.youtube.com/watch?v=gLoI9hAX9dw; categories-on-amazon (abgerufen am (abgerufen am 20.11.2019) 20.11.2019). Shefalee Loth (2018): The facts [2] Der US-Bundesstaat Kalifornien verbietet seit about fake reviews Which? investigators reveal Oktober 2019 60 Tage vor einer Wahl die tricks that sellers use to mislead online Verbreitung von manipulierten Videos, shoppers: Which?; 25.10.2018; Tonspuren und Bildern eines Wahlkandidaten, www.which.co.uk/news/2018/10/the-facts-about- die in böswilliger Absicht den Rufschädigung fake-reviews (abgerufen am 20.11.2019) oder Wählerbeeinflussung betreiben, es sei [8] Lion Gu, Vladimir Kropotov, and Fyodor denn, sie wurden als manipuliert Yarochkin: The Fake News Machine. How gekennzeichnet. Siehe Propagandists Abuse the Internet and https://leginfo.legislature.ca.gov/faces/billTextCli Manipulate the Public (2017); TrendLabs ent.xhtml?bill_id=201920200AB730 (abgerufen Research Paper; Hrsg: Trend Micro, Incorporated; am 20.11.2019). Facebook hat angekündigt, unter: solche Videos in seinen Streams zu entfernen, https://documents.trendmicro.com/assets/white_ die Ergebnis einer KI-Manipulation sind (so dass papers/wp-fake-news-machine-how- sie authentisch erscheinen) und zugleich in propagandists-abuse-the-internet.pdf einer Weise bearbeitet wurden, die für einen (abgerufen am 20.11.2019). Durchschnittsrezipienten nicht erkennbar ist [9] Adrian Chen (2015): The Agency. From a und die wahrscheinlich zu der Überzeugung nondescript office building in St. Petersburg, führt, dass eine dargestellte Person etwas sagte, Russia, an army of well-paid “trolls” has tried to was sie in Wirklichkeit nicht sagte. Siehe wreak havoc all around the Internet — and in https://about.fb.com/news/2020/01/enforcing- real-life American communities; New York Times; against-manipulated-media (abgerufen am 02.06.2015; unter 06.01.2020) www.nytimes.com/2015/06/07/magazine/the- [3] Von 14,698 Deepfake Videos, die im Sommer agency.html (abgerufen am 20.11.2019). The 2019 online gefunden wurden, waren 96% Economist (2018): Inside the Internet Research pornographischer Natur. Siehe für diese und Agency’s lie machine (Briefing); The Economist; folgende Aussagen: Henry Ajder, Giorgio Patrini, 22.02.2018; Francesco Cavalli, and Laurence Cullen (2019): www.economist.com/briefing/2018/02/22/inside- The State of Deepfakes: Landscape, Threats, the-internet-research-agencys-lie-machine and Impact; Amsterdam: Deeptrace; September (abgerufen am 20.11.2019) 2019 [10] British Broadcasting Corporation (2018): [4] Drew Harwell (2018): Fake-porn videos are Cambridge Analytica planted fake news; BBC; being weaponized to harass and humiliate 20.03.2018; unter www.bbc.com/news/av/world- women: ‘Everybody is a potential target’; The 43472347/cambridge-analytica-planted-fake- Washington Post; 30.12.2018; news (abgerufen am 20.11.2019) www.washingtonpost.com/technology/2018/12/3 [11] Henry Ajder, Giorgio Patrini, Francesco 0/fake-porn-videos-are-being-weaponized- Cavalli, and Laurence Cullen (2019): The State harass-humiliate-women-everybody-is-potential- of Deepfakes: Landscape, Threats, and Impact; target/ (abgerufen am 20.11.209) Amsterdam: Deeptrace; September 2019; S. 9 [5] Siehe die bewusste Streuung von Videos, die [12] Elizabeth F Loftus (2005): Searching for the die angeblich betrunkene Sprecherin des US- neurobiology of the misinformation effect: Repräsentantenhauses Nancy Pelosi und die Planting misinformation in the human mind: A angebliche körperliche Aggressivität des US- 30-year investigation of the malleability of Reportes Jim Acosta belegen sollten. Dazu Henry memory; in: Learning & Memory; July 1, 2005 Ajder, Giorgio Patrini, Francesco Cavalli, and Vol: 12; S. 361-366; DOI: 10.1101/lm.94705; Laurence Cullen (2019): The State of Deepfakes: unter: Landscape, Threats, and Impact; Amsterdam: https://www.researchgate.net/publication/80457 Frankfurt a.M., 07.01.2020 14
38_Searching_for_the_neurobiology_of_the_misi nformation_effect (abgerufen am 20.11.2019) [13] Charlie Warzel (2018): He predicted the 2016 fake news crisis. Now he's worried about an information apocalypse; Buzz Feed News; 11.02.2018; unter: www.buzzfeed.com/charliewarzel/the-terrifying- future-of-fake-news (abgerufen am 20.11.2019) [14] Miriam Meckel (2018): Eine neue Schicht Endfrustrierter treibt uns in die Infocalypse. Was dagegen helfen könnte; Wirtschaftswoche; 23.02.2018; unter; www.wiwo.de/politik/deutschland/schlusswort- laesst-sich-die-infocalypse-noch- abwenden/20989742.html (abgerufen am 20.11.2019). Oscar Schwartz (2018): You thought fake news was bad? Deep fakes are where truth goes to die; The Guardian; 12.11. 2018; www.theguardian.com/technology/2018/nov/12/ deep-fakes-fake-news-truth (abgerufen am 20.11.2019). Elmar Theveßen (2019): Manipulierte Videos - Wie Deep Fakes die Welt gefährden ; in zdf – heute Nachrichten; 29.05.2019; www.zdf.de/nachrichten/heute/infokalypse-wie- deep-fakes-die-welt-gefaehrden-100.html (abgerufen am 20.11.2019) [15]vgl. z.B. diese Tipps einer Werbeagentur: https://blog.hootsuite.com/de/facebook- algorithmus-organische-reichweite/ (abgerufen am 20.11.2019) [16] Siehe zumindest für den Einsatz von KI bei Multimedia-Produktionen in den Bildenden Künste die Werke von Gillian Wearing, etwa in ihrer Ausstellung im Cincinnati Art Museum: www.cincinnatiartmuseum.org/wearing . Ein Videoausschnitt demonstriert den Einsatz besonders anschaulich: https://player.vimeo.com/video/295991070 (abgerufen 20.11.2019) [17] Für die Enttarnung von DeepFakes siehe z.B.: TU München (2019): Software FaceForensics erkennt Fake-Videos am zuverlässigsten. Künstliche Intelligenz enttarnt Fake-Videos; Pressemitteilung der Technischen Universität München; 09.06.2019; www.tum.de/nc/die- tum/aktuelles/pressemitteilungen/details/35501 (abgerufen am 20.11.2019); [18] unter Berücksichtigung der bereits vorhandenen philosophischen Erkenntnisse und Traditionen Frankfurt a.M., 07.01.2020 15
Sie können auch lesen