Herausforderung "Deep Fake" - Wie digitale Fälschungen die Realität zerstören FINANZ SYSTEM - FERI Schweiz
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
COGNITIVE BRIEFING Herausforderung „Deep Fake“ Wie digitale Fälschungen die Realität zerstören FINANZ SYSTEM WIRT- FINANZ SCHAFT SYSTEM WIRT- SCHAFT VERMÖGEN VERMÖGEN TECHNIK GESELL- TECHNIK SCHAFT GESELL- SCHAFT
Herausforderung „Deep Fake“ Wie digitale Fälschungen die Realität zerstören Die Welt befindet sich in einer Phase tiefgreifender Digitalisierung. Immer leistungsfähigere Computer und Netzwerke ermöglichen komplexe Anwendungen und massive Daten- transfers. „Künstliche Intelligenz“ (KI) eröffnet völlig neue Potentiale zur Strukturierung, Beschleunigung und Optimierung digitaler Prozesse. Fotoapparate und Videokameras sind längst ersetzt durch digitale Smartphones. Erstmals verfügt ein Großteil der Menschheit über die Möglichkeit, beliebige Ereignisse „live“ zu dokumentieren und zu kommentieren: „Suddenly everyone can create content, and anyone can blog about the news.”1 Mit Hilfe des Internets und digitaler Social Media-Kanäle werden Filme in Echtzeit gestreamed und weltweit verteilt. Videos sind heute das am stärksten wahrgenommene Informationsmedium der Welt und verbreiten sich im Internet oftmals „viral“. Videos dienen aber auch als Beweis für tatsäch- liche Ereignisse, wie etwa eine Rede, einen Unfall oder einen Terror- anschlag. Auch vor Gericht bildet der „Filmbeweis“ die oftmals entschei- dende Urteilsgrundlage. Was wäre, wenn die Beweiskraft solcher Dokumente zukünftig nicht mehr gegeben wäre? Was wäre, wenn durch digitale Hilfsmittel jedes Foto und jeder Film, jedes Video oder Live Streaming verfälscht oder gezielt manipuliert werden könnte? Und was wäre, wenn die Fälschung selbst mit modernsten Mitteln praktisch nicht mehr nachweisbar wäre? Willkommen in der neuen Welt der „Deep Fakes“, wo all dies bereits Realität ist!
Thesen: c Politik, Medien und moderne Gesell- Der Name Deep Fake ist eine Komposition schaften als Ganzes operieren auf Basis aus ‚Fake’ für Fälschung und ‚Deep’, was auf eines generellen „Konzepts der Realität“ die zugrunde liegenden tiefen neuronalen – dieses definiert zentrale Grundlagen menschlicher Interaktion. Netze hinweist. Diese Netze ähneln entfernt der Struktur des menschlichen Gehirns und c Das Konzept der Realität wird zuneh- bestehen aus mehreren Millionen künstlichen mend untergraben durch neue digitale Neuronen, die in der Lage sind, komplizierte Technologien, die – meist durch Einsatz Aufgaben zu lernen. Künstlicher Intelligenz (KI) – nahezu Nicolas Müller, Experte für Machine Learning beliebige Manipulation optischer und am Fraunhofer AISEC2 akustischer Datenträger ermöglichen. c Erstmals in der Geschichte besteht das Potential zur Erzeugung extrem realis- tisch wirkender Fälschungen („Deep Fakes“) von Fotos, Videos und anderen Medien. c Digitale Deep Fakes haben das Potential Deep Fakes sind digitale Fälschungen, die mit zur Erschaffung einer „virtuellen Reali- Hilfe modernster technologischer Hilfsmittel tät“, die jederzeit im öffentlichen Raum erzeugt und in Umlauf gebracht werden. Sie sind von solcher Qualität, dass sie als quasi au- eingesetzt und gezielt missbraucht wer- thentisch wahrgenommen und weiterverbreitet den kann. werden. Erste Beispiele solcher Deep Fakes zir- kulieren bereits, werden jedoch schon in naher Zukunft eine vielfach größere Rolle im täglichen c Da Deep Fakes kaum noch als Fälschung Nachrichtenstrom und dem medialen Umfeld identifizierbar sind, können Politik und spielen – speziell als Videos. Wirtschaft, kritische Medien oder gesell- schaftliche Gruppen dadurch gezielt diskreditiert, manipuliert und „gelenkt“ werden – ebenso wie die breite Öffent- lichkeit. c Deep Fakes zählen damit im Kontext der Digitalisierung zu den gefährlichsten Bedrohungen: Da sie das „Konzept der Realität“ systematisch aushebeln, haben sie das Potential zur Unterminierung ganzer Gesellschaften und politischer Systeme. c Aktive Maßnahmen gegen das Phänomen der Deep Fakes sind dringend und zeitkritisch; erforderlich sind jedoch auch eine breitere öffentliche Wahrnehmung, erhöhte Transparenz sowie ein gezieltes Problemverständnis auf der Ebene von Politik und Öffentlichkeit. FERI Cognitive Finance Institute: Herausforderung „Deep Fake“ – Wie digitale Fälschungen die Realität zerstören | 3
Das Konzept der Realität und seine tiefgreifende Bedeutung Politik, Wirtschaft, Medien und moderne Gesellschaften zunehmenden Nutzung und Verbreitung digitaler Kommu- als Ganzes operieren implizit auf Basis eines gemeinsamen nikationskanäle, zunehmend deutlich hervor. Nach Ein- Grundverständnisses: dem „Konzept der Realität“. Dieses schätzung vieler Experten basiert schon heute ein großer Konzept geht davon aus, dass eine faktenbasierte, sichtbare Teil der Beiträge in sozialen Medien auf fragwürdigen Inhalten und beweisbare Realität existiert, auf deren Nachweis alle und Elementen einer alternativen Realität.5 wichtigen Überlegungen, Diskurse, Entscheidungen und Handlungen zurückgeführt werden können.3 Ein prägnantes Beispiel bietet der ehemalige US- Präsident Donald Trump, der über seinen offiziellen Somit definiert das Konzept der Realität zentrale Grundlagen Twitter-Kanal notorisch irreführende Behauptungen, menschlicher Interaktion ebenso wie das menschliche Falschaussagen und oftmals bewusste Lügen an die Verständnis von Wahrheit, Objektivität und Rationalität. Weltöffentlichkeit ausstrahlte.6 Daraus folgt unmittelbar: Je stärker solche widersprüchlichen oder kontrafaktischen Das Funktionieren einer Gesellschaft setzt ein Mindest- Inhalte einer breiten Öffentlichkeit zugänglich sind und von maß an „wahren“, also objektiv nachvollziehbaren und dieser ohne weitere Prüfung ihrer Authentizität und ihres möglichst „beweisbaren“ Informationen voraus – aus Faktengehaltes „wahrgenommen“ werden, umso mehr deren Summe formt sich dann das generelle Bild der bilden sich daraus im öffentlichen Meinungsspektrum viel- Realität. fältige alternative Realitäten. Dies bedeutet im Umkehrschluss: Solche alternativen Realitäten untergraben eine gemeinsame Sicht auf wichtige Themen und erschweren den geordneten politischen oder sozialen Dialog. Statt faktenbasierter Dis- Wenn das Konzept der Realität durch gezielt ver- kurse dominieren dann aufgeheizte, emotional aufgelade- änderte, systematisch verzerrte oder bewusst ne und stark polarisierte Auseinandersetzungen. Auch hier falsche Informationen über längere Zeit hinweg bietet die jüngere Vergangenheit in den USA eindeutige gestört und unterminiert wird, drohen schwere Erfahrungswerte: gesellschaftliche Verwerfungen – bis hin zum Zusammenbruch politischer Strukturen oder der Öffentliche Diskussionen über die Notwendigkeit von öffentlichen Ordnung.4 Maßnahmen im Zuge der Corona-Pandemie wurden dort mit so großer Härte und oftmals radikaler Rhetorik ge- führt, dass eine sinnvolle und koordinierte Bekämpfung Doch bereits unterhalb dieser Eskalationsschwelle leidet der Pandemie kaum noch möglich war.7 das Konzept der Realität, denn: Zu dieser „dunklen Seite“ sozialer Medien bemerkt der Unterschiedliche Aspekte der Verfügbarkeit, Präsenta- renommierte Historiker Ferguson (2021): tion und Perzeption von Informationen verzerren die individuelle Wahrnehmung und verhindern damit eine generelle Realität. „Wir haben eine Maschine kreiert, die verrückte Ideen in rasender Geschwindigkeit verbreitet, und Dieses Phänomen „verzerrter“ oder „multipler“ Realitäten wissen bis heute nicht, wie wir sie stoppen sollen.“ 8 tritt im Zeitalter der Social Media, speziell im Zuge einer 4 | FERI Cognitive Finance Institute: Herausforderung „Deep Fake“ – Wie digitale Fälschungen die Realität zerstören
Die Relevanz realer Fakten und objektiver Belege Das Konzept der Realität erfordert somit objektiv beweis- Optische Verifikation unklarer oder umstrittener Sachverhalte bare Fakten und Belege, durch die Informationen zweifelsfrei anhand von Fotos, Filmen und Videos ist deshalb übliche als „wahr“ identifiziert und verifiziert werden können. Der Praxis und gelerntes Wissen moderner Gesellschaften: Nachweis von Realität basiert oftmals auf dem Kriterium der Sichtbarkeit, also auf optischen oder fototechnischen Belegen, Videos und Filmdokumente dienen vielfach als Beweis die objektiv scheinen und damit als „wahr“ gelten, denn: für tatsächliche Ereignisse, wie etwa eine politische Rede, einen Unfall oder einen Terroranschlag. Aufgrund neurologischer Prägung neigt menschliches Verhalten dazu, Bildern und „dem Augenschein“ zu ver- Auch vor Gericht bildet der „Filmbeweis“ die oftmals trauen („visuelle Kredibilität“).9 entscheidende Urteilsgrundlage. Neben Fotos sind deshalb vor allem Filme und (als relativ neues Medium) private Videos wichtige Grundelemente für die Wahrnehmung und Deutung von Realität. Speziell We are wired to want to believe audiovisual Videos zählen heute mit großem Abstand zu den wichtigsten material that ‚looks‘ or ‚sounds‘ right. Informationsquellen; deren Entstehung und Verbreitung wird durch Smart Phone-Nutzer sowie das Internet mit seinen Psychologists call this ‚processing fluency‘ … vielfältigen globalen Möglichkeiten im Bereich der Social Schick (2020, Deep Fakes), S. 29. Media massiv verstärkt (vgl. Abb. 1). Abb. 1: Smartphones und Soziale Medien als technologische Treiber Quelle: Horavova, L./Shutterstock.com FERI Cognitive Finance Institute: Herausforderung „Deep Fake“ – Wie digitale Fälschungen die Realität zerstören | 5
Entsprechend konstatiert Schick (2020): Bereits der Begriff „alternative Fakten“ ist ein paradoxes Konstrukt, das von Trump jedoch als bewusstes Täu- „Video has emerged as the most powerful medium of schungsmanöver gegenüber einer kritischen Öffentlichkeit communication in this ecosystem.” 10 – und ganz konkret zur Erzeugung „alternativer Realitäten“ – eingesetzt wurde. Die schon bisher exponentielle Verbreitung privater Videos im Internet kann sich durch technische Innovationen noch Gleichzeitig gibt Trumps gezielte Umdeutung von Fälschun- weiter beschleunigen. In diese Kategorie fällt etwa eine gen in alternative Fakten einen deutlichen Hinweis darauf, neuartige „Videobrille“, vorgestellt vom Social Media-Konzern in welche Richtung sich die Welt bewegt: Facebook: „Facebook hat eine smarte Brille vorgestellt, mit der man Durch Verknüpfung von drei Kernelementen – po- Fotos und Videos aufnehmen kann. (…) Die Aufnahmen litische Skrupellosigkeit, manipulierte Bilder und lassen sich mit der App Facebook View auf dem Smartphone massive Durchdringungskraft sozialer Medien – synchronisieren und in sozialen Netzwerken teilen.11 entsteht erstmals das Potential eines chaotischen Systems alternativer Realitäten. Die dynamische und oftmals sehr unkritische und unkontrol- lierte Ausbreitung von Bildern, Fotos, Videos und Filmclips Eine solche Welt bildet dann zwangsläufig den ist deshalb ein zentraler Teil der Systematik, wie heute in perfekten Nährboden für Entstehung, Ausbreitung modernen Gesellschaften alltägliche Informationen aufge- und gezielten Missbrauch von Deep Fakes. nommen, verarbeitet und reflektiert werden: Eine immer größere Menge an Bildern, die sich oft wider- Diesen zunehmend erkennbaren Effekt bezeichnet der sprechen, erzeugt ein immer höheres „Grundrauschen“ Deep Fake-Experte Woolley (2020) als und erschwert dadurch die Wahrnehmung genereller Realität. „… ‚assault‘ on reality and the truth” und warnt eindring- lich: Stattdessen kann sich eine Vielzahl alternativer Realitä- ten herausbilden, die schlimmstenfalls jeden politischen „… the next wave of technology will break the truth if we oder gesellschaftlichen Konsens zerstören. do not act.”13 Die Relevanz dieser Aussagen zeigt sich auch hier anhand eines kurzen Rückblicks in die USA unter Donald Trump: Trump versuchte während seiner Präsidentschaft mehr- It’s hard to imagine a more serious challenge fach fragwürdige Aussagen und wilde Behauptungen to the sense of shared, reliable reality that anhand von „Fotobeweisen“ zu belegen. Diese hielten keeps us linked together in relative peace. allerdings forensischen Überprüfungen nicht stand und wurden stets als Fehlinformationen oder sogar gezielte Peterson (2019) Manipulationen entlarvt. Um die „Richtigkeit“ seiner Behauptungen zu verteidigen, erfand Trump für seine Fälschungen den Begriff der „alternativen Fakten“.12 6 | FERI Cognitive Finance Institute: Herausforderung „Deep Fake“ – Wie digitale Fälschungen die Realität zerstören
Das Potential digitaler Fälschungen und Deep Fakes Die rapide Entwicklung im Bereich digitaler Technologien anderen Kopf „ausgetauscht“ werden. Die Einbindung dieser ermöglicht schon heute die Erstellung nahezu „perfekter“ „fake faces“ kann je nach verwendeter Technologie krude Fälschungen von Fotos, Videos und anderen optischen Me- und laienhaft sein („Cheap Fakes“), oftmals aber auch film- dien. Insbesondere durch Einsatz neuer technologischer technisch hochprofessionell und für den durchschnittlichen Konzepte wie „Künstliche Intelligenz“ (KI) können Videos Betrachter kaum erkennbar (vgl. Abb. 2). und andere „faktentreue“ Speichermedien in nahezu belie- biger Form verfälscht, verändert und transformiert werden Standardbeispiele solcher Cheap Fakes und ähnlicher – zu extrem realistisch wirkenden Deep Fakes. digitaler Fälschungen finden sich heutzutage in reicher Anzahl im Internet; deren Erstellung und Verbreitung ist vor allem bei Jugendlichen ein beliebter „Freizeitsport“.14 … we have to prepare for a world where seeing and hearing are no longer believing. Durch KI -Verfahren wie Machine Learning sind Schick (2020, Deep Fakes), S. 26. nun auch hier automatisiert hergestellte hoch- wertige Fälschungen möglich – und dank Open Source Software für Jedermann zugänglich. Ein häufig verwendeter Ansatz ist dabei, bestehende Video- Big Data Insider (2021, Deep Fakes) aufnahmen digital so zu manipulieren, dass Kopf und Gesicht eines Akteurs in jeder einzelnen Sequenz digital gegen einen Abb. 2: Grundprinzip von Fake-Videos auf Basis digitaler Bildtransformation Quelle: Svtdesign/Shutterstock.com FERI Cognitive Finance Institute: Herausforderung „Deep Fake“ – Wie digitale Fälschungen die Realität zerstören | 7
Ein zweiter – noch gefährlicherer – Ansatz besteht darin, Eine gewisse Berühmtheit hat in diesem Kontext ein Video Film-, Fernseh- oder Videoaufnahmen prominenter Persön- von Barack Obama erlangt, in dem dieser sich scheinbar lichkeiten digital so umzugestalten, dass die Äußerungen abfällig über seinen Amtsnachfolger Donald Trump äußert, (oder auch bestimmte Handlungen) der Akteure (und damit dann jedoch zugesteht, dass er derartiges nie verlautbaren auch deren Auftritt) einen völlig anderen Sinn ergeben. Bei- würde (zumindest nicht öffentlich).16 (Vgl. dazu Abb. 3). spiele solcher Deep Fakes zirkulieren bereits in vielfältigen Erscheinungsformen im Internet. Häufig steht dabei noch der Spaßfaktor im Vordergrund, oder die Veröffentlichung Zugriff auf das Video von dient sogar als gezielte Warnung vor dem gefährlichen Barack Obama über Potential von Deep Fakes.15 diesen LINK oder den nebenstehenden QR Code. Abb. 3: Das „Obama Deep Fake-Video“ und seine technischen Hintergründe Quelle: UW (2017, Obama) 8 | FERI Cognitive Finance Institute: Herausforderung „Deep Fake“ – Wie digitale Fälschungen die Realität zerstören
Des Rätsels Lösung liegt darin, dass hier ein sehr profes- Speziell der Einsatz leistungsfähiger KI-Systeme ermöglicht sionelles Deep Fake-Video explizit mit dem Ziel erstellt eine extrem genaue „Umrechnung“ aller für einen ziel- wurde, das Gefahrenpotential digitaler Manipulation auf genauen Austausch von Bild- und Tonelementen erforderli- Grundlage völlig neuer technischer Gestaltungsmöglich- chen Datenpunkte. keiten aufzuzeigen.17 Deep Fakes auf Basis komplexer KI-Technologien reprä- In derartigen professionellen Deep Fake-Videos wird einem sentieren damit eine völlig neue Dimension digitaler (meist harmlosen) Ausgangsmaterial mit Hilfe modernster Datenmanipulation, die mit normalen Mitteln kaum noch KI-Technologien nicht nur entdeckt, verhindert oder gar widerlegt werden kann. a) ein völlig neuer Sprechtext oder eine neue Sprachsyn- Deep Fakes haben folglich das (extrem gefährliche) Poten- chronisation unterlegt, einschließlich charakteristischer tial zur Erschaffung einer „virtuellen Realität“, die parallel Sprachfarbe, Modulation und Timbres des Originals, und gleichrangig zur „wahren“ Realität existieren kann! sondern auch b) die zugehörige Mimik, Gestik, Körperhaltung sowie alle Lippenbewegungen sprachsynchron und entsprechend der Originalvorlage digital so „umgeformt“, Ist genügend Audio- und Videomaterial einer dass daraus ein ganz neues Video mit möglicherweise völlig Person vorhanden, lässt sich die KI so trainie- veränderter Aussagekraft entsteht. ren, dass überzeugende Deep Fakes entstehen. Schick (2020) bemerkt dazu: Derartig professionell manipulierte Inhalte zu erkennen, ist Laien kaum noch möglich. „Welcome to the future, one in which AI is getting powerful Deep Fakes werden immer hochwertiger und enough to make people say things they never said and do sind nur noch schwer als Fälschung erkennbar. things they never did.”18 Big Data Insider (2021, Deep Fakes) Die Wirkung derartiger Deep Fakes ist verblüffend und lässt erahnen, in welcher Weise neue und hocheffiziente digitale Technologien die weitere Entwicklung vorantreiben könnten. Zunehmende technologische Möglichkeiten für Deep Fakes Technologien zur digitalen „Umformung“ verschiedener Letztlich handelt es sich dabei nur um eine technologische Originalmedien – wie bei Deep Fakes – sind speziell für An- Weiterentwicklung bereits bestehender Ansätze, die als Motion wendungen in Werbung oder Filmindustrie hochattraktiv Capture bekannt sind und oft in sogenannten CGI-Projekten und versprechen dort völlig neue kreative Möglichkeiten. (CGI: Computer Generated Imagery) Verwendung finden: So sind erste Filmprojekte in Vorbereitung, in denen ver- storbene Schauspieler für die gesamte Länge eines Spiel- Ein bekanntes Beispiel ist die Figur des Gollum im Film- films digital „wiederbelebt“ und als tragende Hauptrolle epos Herr der Ringe, dessen gesamte Mimik und Gestik besetzt werden sollen.19 von Schauspieler Andy Serkis ausgeführt und über Bewe- gungssensoren direkt auf das digitale Konstrukt der Film- figur Gollum übertragen werden (vgl. Abb. 4).20 FERI Cognitive Finance Institute: Herausforderung „Deep Fake“ – Wie digitale Fälschungen die Realität zerstören | 9
Abb. 4: Das CGI-Prinzip zur Erschaffung der fiktiven Filmfigur Gollum Quelle: Karreman (2017, Gollum) Weitere Anwendungsfelder liegen in der digitalen Nachbe- neuen Ideen der Filmindustrie, die zur Umsetzung immer reitung von Filmszenen, in denen Schauspieler etwa digital spektakulärerer Spezialeffekte tendiert. Auch andere kreative verjüngt oder nachträglich ausgetauscht werden müssen.21 Bereiche, darunter speziell (Fernseh-)Werbung und Musik- produktion, nutzen die Möglichkeiten digitaler Nachberei- Eine völlig neue Qualität in dieser Hinsicht zeigt die tung oder „Wiederauferstehung“ beliebter Künstler oder Netflix-Produktion The Irishman, wo Schauspieler wie spezieller Protagonisten.23 Robert de Niro mit Hilfe aufwendiger digitaler Verfahren verjüngt werden und in weiten Teilen des Films (scheinbar Den neuesten Stand dieser Entwicklung repräsentiert authentisch) als ihr „jüngeres Ich“ auftreten.22 die schwedische Pop-Gruppe ABBA, die 2021/2022 nach 40-jähriger Bühnenabstinenz ein spektakuläres Come- back plant: Statt der echten Künstler werden digital ver- Zugriff auf Bilder von jüngte Avatare („Abbatare“) die Auftritte bestreiten (vgl. The Irishman über Abb. 5).24 diesen LINK oder den nebenstehenden QR Code. Andererseits entwickeln sich auch die technologischen Möglichkeiten zur Erstellung digitaler Kreationen oder „Fälschungen“ rapide weiter. Speziell der Einsatz immer Damit scheint klar, dass die technologischen Möglichkeiten leistungsfähigerer KI-Systeme ermöglicht eine massive zur Umsetzung von Deep Fakes bereits unaufhaltsam voran- Beschleunigung aufwendiger digitaler Bild- und Tonbear- schreiten. Die wichtigsten Treiber liegen einerseits in immer beitung; gleichzeitig ist eine stetige Verbesserung der opti- 10 | FERI Cognitive Finance Institute: Herausforderung „Deep Fake“ – Wie digitale Fälschungen die Realität zerstören
Abb. 5: Optische Verjüngung mit digitaler Technologie am Beispiel der „Abbatare“ Quelle: ABBA Voyage (2021, Voyage) schen und akustischen Qualität digitaler Kreationen erzielbar. Infolgedessen sind die technischen Möglichkeiten zur Die entsprechenden Systeme werden wiederum häufig von Erzeugung immer perfekterer Deep Fakes bereits heute Filmschaffenden und Kreativen, speziell aus dem Umfeld sehr vielfältig und erschreckend leistungsfähig. diverser Special Effects-Firmen, gezielt konzipiert und weiter- entwickelt. Aufgrund technologischer Fortschritte, speziell im Be- reich KI, wird das Potential für eine weitere „Optimie- Hieraus entsteht zwischen beiden Bereichen – Filmindustrie rung“ von Deep Fakes jedoch schon in naher Zukunft und KI-Technologie – eine starke Wechselwirkung, die sich rapide zunehmen.26 gegenseitig stimuliert und immer neue Ansätze und Lösun- gen für die möglichst makellose digitale Manipulation visu- eller und akustischer Elemente hervorbringt.25 Daraus folgt: … we are in the early stages of an AI revolution which will completely transform represen- Nicht zuletzt durch intensive kreative Aktivitäten der tations of reality through media. Film-, Fernseh- und Musikindustrie schreitet das Poten- Schick (2020, Deep Fakes), S. 26 tial zur digitalen Manipulation optischer und akustischer Vorlagen und Speichermedien unaufhaltsam voran. FERI Cognitive Finance Institute: Herausforderung „Deep Fake“ – Wie digitale Fälschungen die Realität zerstören | 11
Die Gefahr gezielter öffentlicher Manipulation Schon heute zeigt sich, dass speziell im Bereich der Social Auf westlicher Seite wurde zusätzlich noch das Konzept Media durch böswillige Anschuldigungen und unbewiesene des Microtargeting kultiviert: Dabei werden durch Ana- Behauptungen gezielte Manipulation und sogar zielgerich- lyse von Social Media-Nutzerdaten spezifische „Profile“ tete „Lenkung“ öffentlicher Meinungsbilder hervorgerufen erstellt und Nutzer dann mit gezielt auf ihr jeweiliges werden kann. Bekannte (und inzwischen gut dokumentier- Profil ausgerichteten Fake News „bombardiert“.30 te) Beispiele finden sich bereits in der Zeit 2015/2016, als durch massive „Unterwanderung“ von Social Media, mit Inwiefern diese beiden Aktivitäten 2015/2016 möglicher- gefälschten Veröffentlichungen in großen Social Media- weise gleichgerichtet betrieben wurden (also im Sinne ei- Kanälen, erstmals der Einfluss gezielter Fake News und ner „politischen Verschwörung“ verknüpft waren), ist bis Deep Fakes erkennbar wurde:27 heute Gegenstand zahlloser Mutmaßungen und offizieller Untersuchungen.31 In Deutschland wurde zur Zeit der Flüchtlingskrise 2015 durch gezielte Fake News in sozialen Medien bewusst ein Doch auch ohne finalen Beweis steht fest, dass durch bös- Klima der Angst und der Fremdenfeindlichkeit erzeugt. willige Stimmungsmache und gezielte Verbreitung von Fake News – speziell im weitgehend unregulierten Social In Großbritannien wurde ab 2015 durch aggressive Social Media-Ökosystem – ein erheblicher Teil der öffentlichen Media-Aktionen, unter Einsatz von Fake News, das Wahl- Meinung wirkungsvoll beeinflusst, gelenkt und manipuliert verhalten der Bürger sowie die Entscheidung zum Aus- werden kann.32 tritt aus der EU (BREXIT) gezielt beeinflusst und in eine bestimmte Richtung gelenkt. Damit bewegt sich die Welt unaufhaltsam in eine In den USA wurde 2015/2016 der Präsidentschaftswahl- neue Ära „synthetischer Medien“, deren Legitimi- kampf durch gezielte Manipulation und missbräuchliche tät und Authentizität immer schwerer zu erkennen Nutzung verschiedener Social Media-Kanäle massiv be- und nachzuweisen sein wird. einflusst und möglicherweise in eine vorgegebene Rich- tung „kanalisiert“. Ein Großteil der damaligen Manipulationen lässt sich heute auf gezielte („böswillige“) Aktivitäten russischer „Internet Trolle“ zurückführen, die ganz offensichtlich im Auftrag der russischen Regierung oder deren Geheimdienste handeln.28 … there is no doubt that deepfakes Doch auch westliche Akteure und Unternehmen waren nachweislich in diese Vorgänge verwickelt, darunter die will be used as a weapon, taking Social Media-Plattform Facebook sowie der US-Milliardär video manipulation out of the realm Robert Mercer und das von ihm finanzierte Daten-Unter- of movies and into the real world. nehmen Cambridge Analytica.29 Schick (2020, Deep Fakes), S. 49 Von russischer Seite wurde dabei speziell das Instrument sogenannter Fake Bots eingesetzt, also fiktiver Nutzer- konten, die mit falschen (aber oftmals sehr glaubwürdi- gen) Identitäten in diversen Social Media-Kanälen gezielt Stimmungsmache betrieben, harmlose Vorgänge skan- dalisierten und in großem Umfang Fake News öffentlich verbreiteten. 12 | FERI Cognitive Finance Institute: Herausforderung „Deep Fake“ – Wie digitale Fälschungen die Realität zerstören
Die möglichen Auswirkungen von Deep Fakes Die jüngere Vergangenheit hat klar gezeigt, wie bereits Durch technisch perfektionierte Video-Konstrukte kann somit mit relativ simplen Fake News oder einfachen Cheap Fakes ein völlig neues Spektrum falscher, irreführender oder massiv Einfluss auf alle wichtigen Bereiche öffentlicher gezielt manipulativer „Nachrichten“, „Verlautbarungen“, Meinungsbildung genommen werden kann, speziell durch „Dokumentationen“ oder sonstiger beliebiger Botschaften missbräuchliche Nutzung neuer Social Media-Ökosysteme. an eine breite (im Zweifel globale) Öffentlichkeit übermit- telt werden. Die Art der Einflussnahme kann dabei deutlich manipu- lativ sein, bis hin zu einer gezielten Veränderung gesell- Die Überzeugungswirkung solcher visueller Deep Fakes ist schaftlicher Strömungen oder politischer Koordinaten- grundsätzlich sehr stark, denn: systeme. Evolutionsbedingt schenkt das menschliche Gehirn dem Mit Hilfe neuartiger Technologien lässt sich dieser Effekt Augenschein – also optischer Wahrnehmung – auch allerdings um ein Vielfaches verstärken: im Zeitalter der Digitalisierung noch immer großes Ver- trauen. Inzwischen kann jede beliebige Person mit jeder denkbaren (noch so umstrittenen) Aussage in Verbindung gebracht Fotos, Filme und Videos haben damit prinzipiell eine werden – durch Fabrikation und Publikation eines gezielt hohe Glaubwürdigkeit und Beweiskraft – als scheinbar gefälschten Videos auf Basis von Deep Fake-Mechanismen. korrekte Darstellung der Realität (vgl. Abb. 6). Abb. 6: Deep Fake-Auftritt des jungen Freddy Mercury in seiner späteren Film-Biographie Quelle: Mixed (2019, Mercury) FERI Cognitive Finance Institute: Herausforderung „Deep Fake“ – Wie digitale Fälschungen die Realität zerstören | 13
Was wäre die öffentliche Reaktion, wenn sich der Vor- Zugriff auf das Deep Fake-Video standsvorsitzende einer großen Chemie- oder Pharma- von Freddy Mercury über firma in einem – scheinbar zufällig gefilmten Video – zur diesen LINK oder den gesundheitsgefährdenden Wirkung seiner Produkte nebenstehenden QR Code. bekennen würde? Und welcher Aufruhr wäre in diesem Fall zu erwarten: Hintergrund des Filmausschnitts in Abb. 6 ist ein Deep Fake- Video im Internet, in dem scheinbar der junge Freddy Mercury, Facebook-Chef Mark Zuckerberg gesteht in einer Fernseh- legendärer Leadsänger der Rockgruppe Queen, in seiner übertragung, dass er für eine Geheimorganisation mit Filmbiographie Bohemian Rhapsody auftritt – die jedoch Weltherrschaftsplänen Daten sammelt? ( Ironie: Dieser erst 27 Jahre nach seinem Tod gedreht wurde.33 Vorfall hat tatsächlich bereits stattgefunden!)34 Die manipulative Kraft von Deep Fakes wird anhand einiger Unter der Voraussetzung, dass die optische und technische Gedankenexperimente schnell deutlich: Qualität derartiger Deep Fakes auf einem sehr hohen Niveau ist, und folglich die Fabrikation mit normalen Mitteln kaum Wie würde die Welt reagieren, wenn plötzlich ein „alter zu belegen wäre, könnten derartig gefälschte „Video-Beweise“ Dokumentarfilm“ auftauchen würde, in dem Elvis Presley zumindest für einige Zeit zu völlig unkontrollierbaren Reak- von seinem Plan berichtet, seinen baldigen Tod zu insze- tionen, Gefühlsausbrüchen und Anschuldigungen führen – nieren und sich danach unerkannt in der Südsee nieder- oder aber zu sehr genau geplanten Ergebnissen im Sinne zulassen? einer politischen Agenda. Was würde passieren, wenn morgen im Internet ein In diesem Sinne warnt sehr eindringlich Schick (2020): Video-Interview mit dem Dalai Lama zirkulieren würde, in dem dieser China seine uneingeschränkte Loyalität „At a time when video is becoming the most important versichern würde? medium of human communication, there is no doubt that deepfakes will be used as a weapon…” 35 Die politische Dimension von Deep Fakes Wie Schick (2020) deutlich macht, sind schon heute staatliche Russland betreibt damit einen zwar niederschwelligen, Akteure wie Russland hauptverantwortlich für einen Großteil aber dennoch wirkungsvollen „Information War“, also gezielter Fake News, die vor allem in digitalen Medien gezielt einen propagandistisch motivierten Kampf um Informa- – und mit eindeutig böswillig-manipulativer Absicht – platziert tionen, Meinungsbilder und Deutungshoheit im öffentli- werden. Russland (oder russische Geheimdienste) bedienen chen Raum.38 sich dabei unter anderem der Hilfe sogenannter „Trollfabri- ken“, die einen ständigen Strom an Falschinformationen und Das Potential staatlich unterstützter Hacker, Digitalagen- gezielt manipulierten Einträgen auf verschiedensten Kanälen turen und Trollfabriken zur Fabrikation nicht nur einfacher des Internet und der sozialen Medien produzieren.36 Falschmeldungen, sondern auch deutlich effektvollerer Deep Fakes ist hoch und sollte nicht unterschätzt werden. Die Zielsetzung dahinter scheint klar: Neben Russland (sowie partiell China) sind auf diesem Gebiet auch andere staatliche und halbstaatliche Akteure Russland verfolgt das Konzept „asymmetrischer Konfron- aktiv; ein zukünftiger Schwerpunkt könnte sich dabei tation“, als Teil eines strategischen Propagandafeldzugs durchaus auch im Bereich radikalislamistischer Gruppie- zur gezielten Destabilisierung westlicher Gesellschaften.37 rungen entwickeln.39 14 | FERI Cognitive Finance Institute: Herausforderung „Deep Fake“ – Wie digitale Fälschungen die Realität zerstören
Abb. 7: Deep Fake-Anwendungen haben hohe Anziehungskraft für autokratische Regime Quelle: Zikina, A./Shutterstock.com Wie bereits deutlich wurde, haben anspruchsvolle Deep einfach abzustreiten und (möglicherweise erfolgreich) als Fakes in Form technisch „makelloser“ Videofälschungen böswillige Deep Fakes zu diskreditieren (vgl. Abb. 6).42 ein gefährliches Potential zur gezielten Manipulation der öffentlichen Meinung. Damit ist klar: Darin liegt ohne jeden Zweifel: Die Möglichkeit zu nahezu beliebiger Verfremdung echter „Eine gefährliche Entwicklung für die Demokratie, denn Film- und Videodokumente sowie das technische Poten- für die politische Willensbildung ist es wichtig, dass Bür- tial zur Fabrikation artifizieller „Videobeweise“ – und deren ger:innen ihren Informationsquellen vertrauen.“ 43 Missbrauch im öffentlichen Raum – werden Politik und Gesellschaft schon in Kürze mit enormen Herausforde- Schon diese kurzen Ausführungen machen deutlich: rungen konfrontieren.40 Deep Fakes haben eine hochgradig gefährliche politische Speziell Politik und Wirtschaft, aber auch kritische Medien Dimension, deren mögliche Bedeutung aus heutiger Sicht und gesellschaftliche Gruppen könnten durch gezielt einge- wohl selbst von vielen Experten noch unterschätzt wird. setzte Deep Fakes geschädigt und diskreditiert, aber auch zielgerichtet manipuliert und „gelenkt“ werden. Die Kom- Die Möglichkeit wirkungsvoller Einflussnahme auf soziale munikationsexpertin Viorela Dan bemerkt dazu: Strömungen, politische Bewegungen oder öffentliche Mei- nungsbilder ist so „verlockend“, dass die Deep Fake-Techno- „Deep Fakes können dazu führen, dass Politiker aus den fal- logien mit sehr hoher Wahrscheinlichkeit bald noch stärker schen Gründen nicht gewählt oder entmachtet werden.“ 41 eingesetzt werden dürften – etwa um Wahlen zu beeinflus- sen, politische Gegner zu diskreditieren oder eine neue Art Da Deep Fakes per Definition kaum als Fälschung identi- von asymmetrischer Kriegführung einzuleiten. fizierbar sind, wird der Nachweis einer Schädigung oder Manipulation zukünftig extrem schwer fallen. Speziell die USA, die schon heute durch ein extremes Maß an sozialer Spannung und einen sehr hohen Grad an Dieses Potential gibt jedoch – in umgekehrter Logik – Polarisierung gekennzeichnet sind, könnten sich künftig künftig auch Politikern vom Schlage eines Donald Trump als sehr ergiebiger „Playground“ für politische Attacken die Möglichkeit, authentische Beweise etwa für Korrupti- unter Einsatz von Deep Fakes erweisen.44 on, politische Verbrechen oder sonstiges Fehlverhalten FERI Cognitive Finance Institute: Herausforderung „Deep Fake“ – Wie digitale Fälschungen die Realität zerstören | 15
Unter Verweis auf die spezielle Lage in den USA (und unter Bezugnahme auf ein mögliches Deep Fake-Video) warnt der Zugriff auf das Video von US-Senator Marco Rubio: Marco Rubio mit Warnung vor Deep Fakes (Min. 4:40 - 17:43) „Man stelle sich vor, dass ein solches Video am Vor- über diesen LINK oder den tag einer Wahl erscheint, innerhalb einer Kultur, in der nebenstehenden QR Code. die Menschen bereits zu Vorurteilen neigen und an un- geheuerliche Dinge zu glauben bereit sind und einer Medienlandschaft und sozialen Netzwerken, in der sich das Video rasant verbreitet.“ 45 Die zunehmende globale Bedrohung durch Deep Fakes Deep Fakes zählen zu den gefährlichsten Bedrohungen im Schick (2020) bringt diese kritische Sicht auf den Punkt und neuen Zeitalter der Digitalisierung: Da sie das „Konzept der betont: Realität“ ernsthaft untergraben, haben sie das Potential zur tiefen Spaltung ganzer Gesellschaften und zum Umsturz „Everyone is at risk.“ 48 (oder zur Zerstörung) politischer Systeme. Denn: Das zukünftige Szenario einer digital hochvernetzten Welt, Wenn sich „Realität“ nicht mehr klar identifizieren lässt – die zunehmend von böswilligen Deep Fakes durchdrungen als Folge unterschiedlicher, jedoch allesamt „überzeu- und unterwandert werden könnte, ist damit bereits sehr gender“ visueller Darstellungen (darunter gezielte Fäl- klar umrissen. Zwei Aspekte sind als „Brandbeschleuniger“ schungen) – wird es immer schwerer werden: dieser Tendenz von besonderer Bedeutung: • politische Mehrheiten für wichtige Problemstellungen zu gewinnen, Das rasch wachsende Potential zur Fabrikation nahezu • vor Gericht mit Hilfe digitaler oder visueller Beweise perfekter Deep Fakes – mit Hilfe neuartiger und sich rapide Recht zu bekommen, weiterentwickelnder KI-Technologien! • seine eigene Meinung authentisch und frei von Mani- pulation äußern zu können. Die subtilen Möglichkeiten zur weltweiten Publikation von Deep Fakes – über einen der zahlreichen global akti- In diesem Sinne warnt Ian Goodfellow, führender Experte für ven und nur wenig regulierten Social Media-Kanäle! KI-basierte Bildmanipulation, bereits eindringlich vor dem „… Aufkommen eines Medienzeitalters, in dem Ton-, Bild- und Speziell der massive Fortschritt technischer Möglichkeiten Videoaufnahmen ihre Beweiskraft eingebüßt haben.“ 46 unter Einsatz von KI, nicht zuletzt angetrieben durch krea- tive Anwender aus Filmindustrie, Entertainment, Gaming Höchst alarmiert äußert sich auch der kanadische Intellek- oder Werbung, wird diesen Trend unaufhaltsam weiter tuelle und Forscher Jordan Peterson: vorantreiben. Auch hier warnt Schick (2020) sehr klar: „Wake up. The sanctity of your voice, and your image, is at „Synthetic media will take this even further, as Hollyood-level serious risk. It’s hard to imagine a more serious challenge special effects will soon become accessible to everyone.“ 49 to the sense of shared, reliable reality that keeps us linked together in relative peace.“ 47 16 | FERI Cognitive Finance Institute: Herausforderung „Deep Fake“ – Wie digitale Fälschungen die Realität zerstören
Vor diesem Hintergrund scheint klar, dass sich das Problem Ob derartige Ansätze aber tatsächlich ausreichen werden, (Deep Fakes) wesentlich schneller und dynamischer ent- um einer (möglichen) Flut künftiger Deep Fakes wirksam wickeln wird als zugehörige Lösungsansätze (Regulierung/ entgegenzutreten, ist vorerst noch völlig offen. Viele Exper- Kontrollen). ten sehen diesen Punkt eher pessimistisch: Dennoch arbeiten speziell in den USA bereits verschie- dene Agenturen und Forschungsstellen an technischen „Deepfake-Videos sind der wahr gewordene Traum von Lösungen, um böswillige Deep Fakes zuverlässig erken- Akteuren, die Desinformation verbreiten wollen. Und nen und deren unkontrollierte Verbreitung möglichst der Albtraum derjenigen, die dagegen ankämpfen.“51 früh stoppen zu können.50 Fazit und Ausblick Nach übereinstimmender Einschätzung zahlreicher Exper- Das weitgehend unregulierte Umfeld der digitalen „Social ten, und gestützt auf bereits bekannte Ergebnisse sowie ab- Media“ bietet für Deep Fake-Fabrikationen schon heute sehbare technologische Trends, ist schon in wenigen Jahren einen nahezu perfekten Nährboden, zumal das allgegen- mit einer massiven Zunahme qualitativ sehr hochwertiger wärtige Medium der „privaten Videos“ dort eine zuneh- Deep Fakes zu rechnen: mend dominante Rolle spielt.52 Dies bedeutet nahezu perfekte – und scheinbar original- Die rapide Weiterentwicklung technologischer Ansätze getreue – Fälschungen von Film- und Video-Sequenzen, auf Basis von KI wirkt als weiterer „Brandbeschleuniger“, mit beliebig einsetzbaren (echten, fiktiven oder bereits der eine massive Zunahme von Deep Fakes praktisch verstorbenen) Akteuren und vom Urheber der Fabrikation garantiert.53 völlig frei wählbaren Aussagen und Inhalten! Zudem ist in vielen Gesellschaften das Vertrauen in Politik, Was für die Film- und Unterhaltungsindustrie eine kreative Medien und andere Institutionen bereits deutlich redu- Goldmine werden könnte, ist für den Rest der Welt ein ext- ziert, was eine unkritische Aufnahme und „gutgläubige“ rem beunruhigendes Szenario („Albtraum“): Verbreitung von Deep Fakes grundsätzlich begünstigt („crisis of trust“).54 Die anbrechende Ära der Deep Fakes könnte das bisherige Verständnis von „Realität“, „Wahrheit“ oder „Beweis- Aus diesen Rahmenbedingungen ergeben sich äußerst be- kraft“ so massiv verändern, dass moderne Gesellschaf- unruhigende Schlussfolgerungen, die in einer transparenten ten zutiefst deformiert und in ihrem Kern nachhaltig Analyse – und in einem möglichst breiten gesellschaftlichen geschädigt werden könnten. Diskurs – weiter behandelt werden müssen. Politische oder kriminelle Akteure könnten Deep Fakes ge- Auch eine stärkere Regulierung der Social Media sowie zielt als „Waffe“ einsetzen, um missliebige Individuen oder restriktivere Gesetze in diesem Bereich wären sinnvoll: Da ganze Kollektive systematisch zu manipulieren, zu diskredi- aber Deep Fake-Videos auch völlig außerhalb westlicher tieren oder für bestimmte Zwecke zu instrumentalisieren. Jurisdiktion jederzeit mit einem simplen Mausklick an ein weltweites Publikum verschickt werden können, bleibt die- Gleichzeitig sind die technischen und kulturellen Rahmen- ser Ansatz zwangsläufig begrenzt.55 bedingungen in vielen westlichen Gesellschaften schon heute so angelegt, dass ein exponentieller Zuwachs der Investigative Institutionen, die sich dem Auffinden, dem Deep Fake-Problematik nahezu zwangsläufig zu erwarten Enttarnen und der Widerlegung von Deep Fakes widmen, ist (vgl. dazu Abb. 8): sollten deshalb aktiv unterstützt werden.56 FERI Cognitive Finance Institute: Herausforderung „Deep Fake“ – Wie digitale Fälschungen die Realität zerstören | 17
Abb. 8: Zusammenwirken der Haupttreiber hinter Deep Fakes Zunehmende Bedeutung durch neue technische Möglichkeiten Rapide Beschleunigung Künstliche Intelligenz Neue Anwendungen technischer und spezielle Möglichkeiten Anforderungen zur digitalen Feedback-Schleife/ Technologie Feedback-Schleife/ (Filme, Entertainment, Bildmanipulation Beschleunigung Beschleunigung Gaming, Werbung etc.) Videos Deep Medienindustrie Fakes Starke Ausbreitung und Manipulation Virtuelle Realität Massive Dominanz von Videos Misstrauen Überschneidung im Internet & zwischen klassischer in Social Media Medienwelt & Social Media Social Media Zunehmende Bedeutung durch Internet & Smartphone-Welt Quelle: FERI Cognitive Finance Institute (2021) Zudem muss die mediale Kompetenz vieler Social Media- Diese Überlegungen zeigen deutlich das zerstörerische Nutzer aktiv gestärkt werden, um einen sowohl kritischen Potential des Phänomens Deep Fakes für Gesellschaft und als auch offenen Umgang mit der Bedrohung durch Deep Politik. Dieses Potential kann nicht nur durch seine tatsäch- Fakes zu ermöglichen.57 Denn leider wirkt das Phänomen liche Anwendung, sondern bereits durch die bloße Mög- der Deep Fakes in beide Richtungen; es kann somit – durch lichkeit seiner Existenz freigesetzt werden! „negatives Lernen“ – auch das Vertrauen in absolut authen- tische Information massiv untergraben.58 Abschließend ist somit festzuhalten: Maßnahmen gegen das Phänomen der Deep Fakes sind Aus diesem Aspekt folgt: dringend und zeitkritisch; zwingend erforderlich sind jedoch auch eine breitere öffentliche Wahrnehmung, „… dass die vielleicht größte Gefahr von Deep Fakes erhöhte Transparenz sowie ein gezieltes Problemver- gar nicht darin besteht, dass Menschen gefälschte ständnis auf der Ebene von Politik und Medien. Aufnahmen für echt halten könnten, sondern kurioser- weise im genauen Gegenteil – nämlich darin, dass Dieses Cognitive Briefing soll dazu beitragen, die Wahrneh- sie echte Aufnahmen für gefälscht halten.“ 59 mung des Problems Deep Fakes zu schärfen und dessen immense Tragweite deutlich zu machen. Das FERI Cognitive Finance Institute wird das sich rasant entwickelnde Phäno- men Deep Fakes auch weiterhin intensiv beobachten. 18 | FERI Cognitive Finance Institute: Herausforderung „Deep Fake“ – Wie digitale Fälschungen die Realität zerstören
Erläuterungen: 1 Woolley (2020, Reality), S. 59-60. 31 Vgl. dazu: Schick (2020, Deep Fakes), S. 60-75, mit klarer Evidenz für 2 Zitiert nach: Big Data Insider (2021, Deep Fakes). eine solche zielgerichtete Attacke. 3 Diverse Grundströmungen der Philosophie zweifeln zwar die Existenz 32 Diese Aussage gilt zumindest für die offenen westlichen Demokratien, einer tatsächlichen Realität an; dieser Aspekt soll hier jedoch nicht die dafür sehr anfällig sind. weiterverfolgt werden. 33 Vgl. dazu: Mixed (2019, Mercury): „Der Deepfaker Ctrl Shift Face 4 Vgl. dazu ausführlich: Schick (2020, Deep Fakes), S. 86-165; hervorgehoben trainierte eine KI mit Bild- und Videoaufnahmen Mercurys und tauschte wird dabei speziell das Element einer fortschreitenden und gezielt Maleks Gesicht mit dem von Mercury aus. ‚Glaubt nichts, das ihr im herbeigeführten „Vertrauenskrise“ („crisis of trust“). Internet seht, ok?‘ heißt es in der Beschreibung seines Kanals.“ (Rami Malek ist der Schauspieler, der Freddy Mercury im Film verkörperte). 5 Plakative Beispiele sind die zahlreichen im Internet kursierenden „Verschwörungstheorien“ zu einer Vielzahl von Themen, zuletzt 34 Vgl. Tagblatt (2019, Fake-Media); mit folgendem ergänzenden Hinweis: stark angeheizt durch „alternative“ Erklärungsversuche zur Corona- „Das (…) gefälschte Video von Zuckerberg wurde übrigens nicht vom Pandemie. Foto-Netzwerk Instagram, das zu Facebook gehört, gelöscht; über die Suchfunktion ist es allerdings nicht mehr auffindbar.“ 6 Vgl. dazu ausführlich und mit vielen Beispielen: Schick (2020, Deep Fakes). S. 86-117; dort wird unter anderem festgestellt: „… cheapfake 35 Schick (2020, Deep Fakes), S. 49. video content has become a regular feature of Trump’s output on 36 Vgl. dazu etwa: Spiegel (2015, Trollfabrik). Ausführlich dazu auch: Twitter.” (S. 101). Schick (2020, Deep Fakes). 7 Vgl. dazu überblickartig: Schick (2020, Deep Fakes), S. 166-186. 37 In diesem Sinne sehr klar: Schick (2020, Deep Fakes), S. 53-85. 8 Ferguson (2021, Folgen), S. 19. 38 Schick (2020, Deep Fakes), S. 81, erklärt dazu: „A Pentagon white 9 Vgl. dazu: Schick (2020, Deep Fakes), S. 28-29. Dieser Aspekt „visueller paper concluded that ‘the US is still underestimating the scope of Kredibilität“ wird unter anderem auch ausgenutzt im Kontext optischer of Russia’s aggression, which includes the use propaganda and Täuschungen, wie etwa der sogenannten „trompe l’oeuil“-Malerei. disinformation to sway public opinion across Europe, Central Asia, Africa and Latin America’.” 10 Schick (2020, Deep Fakes), S. 11. 39 Schick (2020, Deep Fakes), S. 85, nennt in diesem Kontext neben 11 Vgl. dazu: n-tv (2021, Datenbrille). Nord-Korea noch Iran, Saudi-Arabien und die Vereinten Arabischen 12 Der Begriff „alternative Fakten“ wurde von Trumps damaliger Presse- Emirate. Interessanterweise verfügen viele islamistische Gruppierun- sprecherin Kellyanne Conway erstmals verwendet und geprägt; vgl. gen über hochstehende digitale Fähigkeiten. dazu: Handelsblatt (2017, Medien); Zeit (2018, Fake News). Später ließ 40 Aus diesem Grund warnt auch bereits die Deutsche Bundesregierung: die Trump-Administration auch Videoaufnahmen aus einer Presse- „Deepfakes können das gesellschaftliche Vertrauen in die grundsätzliche konferenz im Weißen Haus gezielt manipulieren; vgl. dazu: FAZ (2018, Echtheit von Audio- und Videoaufnahmen und damit die Glaubwür- Manipulationsvorwürfe). digkeit öffentlich verfügbarer Informationen schwächen.“ Sie könnten 13 Woolley (2020, Reality), S. 4 bzw. S. 9. daher eine „große Gefahr für Gesellschaft und Politik darstellen.“; zitiert 14 Zu entsprechenden Anleitungen und Apps, die im Internet frei zirku- nach: mixed (2021, Deepfakes). Ausführlich dazu: Bundesregierung lieren, vgl. etwa: PC Magazin (2018, FakeApp); analog auch: Das Erste (2021, Deep Fakes). (2021, Fälschen). 41 Dr. Viorela Dan, Medienforscherin an der LMU in München, zitiert 15 Zu einer guten Gesamtbetrachtung der Entwicklung von Deep Fakes nach: LMU (2021, Deepfakes). vgl. die gute Darstellung unter: Mixed (2021, Deepfakes). 42 Schick (2020, Deep Fakes), S. 94, 130-134, bezeichnet diese Möglichkeit 16 Das Video ist abrufbar unter: https://ars.electronica.art/center/de/ als „liars dividend“ („Lügen-Dividende“), also als Freifahrtschein für obama-deep-fake/. gezielte öffentliche Lügen und sonstiges krasses Fehlverhalten. 17 Vgl. dazu die sehr informative Darstellung unter: https://ars.electronica. 43 KlickSafe (2021, Deep Fakes), (Hervorhebung im Original). art/center/de/obama-deep-fake/. 44 Vgl. dazu analog: Schick (2020, Deep Fakes), S. 87-117; sowie konkret: 18 Schick (2020, Deep Fakes), S. 8. „The distrust and polarization (… are …) another sign that the United 19 Vgl. dazu etwa: Mixed (2021, Schauspieler). States is creeping closer to a dangerous tipping point.” (S. 109). Zum Thema der „gespaltenen USA“ („Un-United States of America“) vgl. 20 Vgl. dazu: Galaxus (2019, Gollum). ausführlich auch: Rapp (2018, USA). Vor diesem Hintergrund ist 21 Ein bekanntes Beispiel hierfür ist die Filmproduktion Fast and Furios 7, interessant, dass der neue US-Präsident Joe Biden gegenüber den wo der während der Dreharbeiten verstorbene Hauptdarsteller Paul Regierungen Russlands und Chinas eine Art von „roter Linie“ gezogen Walker nachträglich mit Hilfe von CGI-Elementen in einige Szenen hat, die sich allem Anschein nach auf den Komplex möglicher „Hacking digital eingefügt wurde; vgl.: Moviepilot (2015, CGI-Szenen). & Faking“-Angriffe (unter Einsatz von KI und Deep Fakes) bezogen; 22 Vgl. dazu etwa: Moviepilot (2020, Irishman); Vgl. dazu generell auch: vgl. dazu: NZZ (2021, Hacker); ZDF (2021, Gipfel). Euronews (2020, Verjüngung). 45 Marco Rubio, US-Senator für Florida; zitiert nach: Tagblatt (2019, 23 Trendsetter sind hier unter anderem Musikkonzerte mit digitalen Fake-Media). Hologrammen, etwa der verstorbenen Sängerin Whitney Houston, 46 Ian Goodfellow, Erfinder der sogenannten GAN-Technologie, die ein sowie rein digitale „Musikinterpreten“, wie etwa die artifizielle völlig neues Niveau KI-basierter Video-Manipulation ermöglicht, zitiert japanische Kunstfigur und Sängerin Hatsune Miku; vgl. dazu: nach: Tagblatt (2019, Fake-Media). Vgl. zum Hintergrund der GAN- Ingenieur (2020, Hologramm); Aachener Zeitung (2020, Computer); Methodik ausführlich auch: Schick (2020, Deep Fakes), S. 43-50; sowie: Spiegel (2014, Star). Mixed (2021, Deepfakes). https://mixed.de/geschichte-der-deepfakes- 24 Vgl. dazu: ABBA (2021, Voyage) sowie: n-tv (2021, ABBA); People (2021, so-rasant-geht-es-mit-ki-fakes-voran/ Avatars). 47 Dr. Jordan Peterson, zitiert nach: Schick (2020, Deep Fakes), S. 145. 25 Vgl. dazu ausführlich auch: unten, letztes Kapitel sowie Abb. 8. 48 Schick (2020, Deep Fakes), S. 145. 26 Vgl. dazu: Schick (2020, Deep Fakes), S. 8: „But recent advances in 49 Schick (2020, Deep Fakes), S. 30. AI are going to take it further still, by giving machines the power to 50 Vgl. dazu: Tagblatt (2019, Fake-Media): „Das US-Verteidigungsministe- generate wholly synthetic media.” rium lässt seit 2018 KI-gestützte Programme entwickeln, die Deepfakes 27 Vgl. zu diesen Beispielen sowie der zugehörigen Dokumentation und entlarven sollen.“ Vgl. dazu ebenfalls: Schick (2020, Deep Fakes), Belegführung ausführlich: Schick (2020, Deep Fakes). S. 188-206. Big Data Insider (2021, Deep Fakes), empfiehlt dazu: 28 Vgl. dazu ausführlich: Schick (2020, Deep Fakes), S. 52-85; dort wird in „KI mit KI abwehren“ („Eine mögliche Antwort auf diese Bedrohungen diesem Kontext festgestellt: „Putin is one of the most dangerous men ist die KI-gestützte Erkennung von Deep Fakes. Neuronale Netze können in the world.“ (S. 53). nicht nur auf die Erstellung von Fakes trainiert werden, sondern lassen 29 Vgl. dazu ausführlich auch: Guardian (2021, Files); New Yorker (2018, sich auch auf die Erkennung von gefälschtem Material trainieren.“) Voter Manipulation); Süddeutsche (2018, Facebook). 51 Dr. Viorela Dan, Kommunikationswissenschaftlerin und Medienforsche- 30 Vgl. dazu überblickartig: bpb (2019, Microtargeting). rin an der LMU in München, zitiert nach: LMU (2021, Deepfakes). FERI Cognitive Finance Institute: Herausforderung „Deep Fake“ – Wie digitale Fälschungen die Realität zerstören | 19
Sie können auch lesen