Whitepaper zum Thema "Deepfakes" - EDV-NR: 253504A AKTUELLE THEMEN ARON KÖCHER, MATRIKEL NR: 38372 - Institute for Applied AI

Die Seite wird erstellt Viona Schumann
 
WEITER LESEN
Whitepaper zum Thema "Deepfakes" - EDV-NR: 253504A AKTUELLE THEMEN ARON KÖCHER, MATRIKEL NR: 38372 - Institute for Applied AI
Hochschule
                                     der
                                   Medien
                                   SS 2020

Whitepaper zum Thema
“Deepfakes”
EDV-NR: 253504A AKTUELLE THEMEN
ARON KÖCHER, MATRIKEL NR: 38372
Whitepaper zum Thema "Deepfakes" - EDV-NR: 253504A AKTUELLE THEMEN ARON KÖCHER, MATRIKEL NR: 38372 - Institute for Applied AI
Einleitung                                     wurde ein weiteres Paper veröffentlicht,
Bei einer Bitkom Research-Umfrage im           welches es ermöglicht, in Echtzeit die
Jahr 2018 wurden über 1000 Teilnehmer          Mimiken eines Gesichts auf eine Person in
gefragt, ob sie eher Chancen oder Risiken      einem Video zu animieren [4]. Ein Jahr
in der künstlichen Intelligenz sehen. 62%      darauf folgte dann die Veröffentlichung
antworteten, dass sie eine klare Chance        eines Programms, bei dem der ehemalige
sehen und fast jeder 5. glaubt, künstliche     Präsident der USA Barack Obama per
Intelligenz verändert bereits jetzt unsere     Deepfake dargestellt wurde. Hierbei ist
Gesellschaft spürbar. Allerdings haben         deutlich ein Qualitätssprung in der
35% gemeint, dass künstliche Intelligenz       Entwicklung zu erkennen und erste
ein Risiko darstellen kann [1]. Ein Beispiel   Medien fingen an Deepfakes genauer zu
für ein potentielles Risiko von künstlicher    betrachten, um auch auf mögliche
Intelligenz sind Deepfakes. In der             Gefahren hinzuweisen [5], [6]. Folglich gab
folgenden Ausarbeitung soll sowohl             es auch die ersten Deepfakes im privaten
gezeigt werden, was Deepfakes sind, wie        Bereich. Ein Nutzer namens „deepfakes“
sie funktionieren und welche                   hat im Dezember 2017 auf der Social-
Einsatzgebiete es gibt. Außerdem soll die      News-Plattform Reddit diverse, eigens
Frage beantwortet werden, ob und welche        erstellte Pornovideos, hochgeladen. In
Risiken von Deepfakes ausgehen können          diesen Videos wurden Gesichter von
und wie man die Risiken einschränken           Pornostars mit denen von Scarlett
kann.                                          Johansson, Taylor Swift und der Wonder
                                               Woman Darstellerin Gal Gadot
Definition                                     ausgetauscht [7], [8]. Anfang 2018 folgte
Als „Deepfake“ werden realistisch              daraufhin mit FakeApp eine Desktop
wirkende Bild-, Audio oder                     Anwendung, die Deepfakes relativ
Videomaterialien bezeichnet, die mit Hilfe     benutzerfreundlich Privatpersonen
von künstlicher Intelligenz manipuliert        zugänglich machte [9]. Hierbei wird das
wurden. Dabei kommen in erster Linie           Gesicht in einem Video ausgetauscht.
Verfahren aus dem Machine Learning zum         Kurze Zeit später folgte dann auch die
Einsatz, speziell dem Deep Learning.           Bereitstellung von DeepFaceLab, einer
Dadurch leitet sich auch der Name ab:          Anwendung, die nach eigenen Angaben
Deepfake ist eine Kombination der              mehr als 95% des im Internet
englischen Wörter „Deep Learning“ und          veröffentlichten Deepfake Materials zu
„Fake“ und wurde erstmals 2017 geprägt         verantworten hat [10]. 2019 wurde die
[2].                                           Technologie nochmals weiterentwickelt.
                                               In einer Kooperation von Samsung mit den
Geschichte                                     Wissenschaftlern des Skolkovo Institute of
Die folgenden Meilensteine zeigen              Science and Technology ist es ihnen
einschlägige Ereignisse im Bereich der         gelungen, eine Verfahrensweise zu
Deepfakes: Bereits im Jahr 1997 wurde ein      entwickeln Deepfakes auf Grundlage eines
wissenschaftliches Paper zum Thema             einzigen Eingabebildes zu erstellen.
„Video Rewrite“ veröffentlicht, welches        Während dies bei einem Test mit der
Videomaterial einer sprechenden Person         „Mona Lisa“ relativ realistisch aussieht, ist
modifiziert, in dem es die Person beim         es allerdings bei anderem Testmaterial
Sprechen einer anderen Tonspur zeigt.          nicht ganz so realistisch. Dies kann
Grundlage zur vollständigen                    allerdings mit deutlich weniger
automatischen Animation der Gesichter          Eingabematerial, als bei früheren
war hierbei maschinelles Lernen [3]. 2016      Technikständen, verbessert werden [11].
Whitepaper zum Thema "Deepfakes" - EDV-NR: 253504A AKTUELLE THEMEN ARON KÖCHER, MATRIKEL NR: 38372 - Institute for Applied AI
Funktionsweise                                Person B und Decoder B. Nach dem
Wie in nahezu allen Modellen der              Training wird der Decoder A aus dem
künstlichen Intelligenz wird zunächst         Modell von Person A mit dem Decoder
Ausgangsmaterial benötigt. Dabei bieten       von Person B ausgetauscht und man erhält
sich Bewegtbilder, also Videomaterial von     so den Deepfake [12].
Personen an, die man manipulieren
möchte. Je mehr Ausgangsmaterial
vorhanden ist, umso besser kann das
Training des Modells erfolgen. Ein
Videomaterial aus verschiedenen
Perspektiven sowie mit verschiedenen
Mimiken macht das Ergebnis noch besser.

Es gibt verschiedene Ansätze, um einen
Deepfake umzusetzen. Eine gängige
Variante ist der Autoencoder. Dieses
                                              Abbildung 1: Darstellung des Autoencoders zur Erstellung
neuronale Netz erstellt aus einem
                                              eines Deepfakes [12]
Eingabebild ein digitales Abbild (auch
Encoding genannt). Dabei wird das             Anwendungsbereiche
Eingabebild z.B. durch ein Verfahren wie      Pornoindustrie: Wie bereits erwähnt,
Max-Pooling verkleinert und auf               wurde 2017 der erste Reddit Blogbeitrag
wesentliche Kernmerkmale des Bildes           im Bereich Deepfakes und Pornos erstellt.
reduziert. Auf Grundlage des encodierten      Inzwischen allerdings ist der Subreddit
Bildes wird im Anschluss versucht das Bild    (der Bereich für Deepfakes und
möglichst echt künstlich nachzubilden         Pornografie) aber von Reddit geschlossen
(auch Decoding genannt). Folglich hat das     worden und das Hochladen selbiger
Decoding das Ziel ein identisches,            Deepfakes nicht mehr gestattet [13], [14].
künstliches Abbild des encodierten            2018 folgte ein weiterer Einsatzbereich
Eingabebildes zu erzeugen. Um den             von Deepfakes in der Pornoindustrie mit
Autoencoder noch robuster zu machen, ist      einem neuen Geschäftsmodell. Ein US-
es außerdem ratsam die Eingabebilder zu       Pornostudio veröffentlichte eine Plattform
verzerren, Auflösungen zu variieren und       für Kunden, bei welchem man ein eigenes
die Größe zu verändern. Über die Zeit des     Gesicht hochladen kann und das Studio im
Trainings wird so das Netz immer besser       Anschluss dieses in einen Pornofilm per
und der Unterschied zwischen                  Deepfake einbindet. Darüber hinaus kann
Eingangsbild und Ausgangsbild ist nahezu      auch die Umgebung, wie beispielsweise
nicht mehr vorhanden.                         eine Aufnahme der eigenen Wohnung, in
                                              das Video animiert werden [15]. Im Juni
Beim Tausch von zwei Personen wird            2019 ging dann mit DeepNude eine
jeweils das Autoencoder Verfahren             weitere Plattform im Bereich Deepfakes
(bestehend aus Encoder und Decoder) auf       an den Start. Hierbei hat der Nutzer die
beide Personen angewendet. Hierfür wird       Möglichkeit, Frauenbilder hochzuladen
allerdings der gleiche Encoder verwendet,     und im Anschluss ein Nacktbild dieser
aber zwei verschiedene Decoder.               Fotos herunterzuladen. Inzwischen ist die
Während dem Training wird zuerst              Anwendung von den Betreibern aber
Bildmaterial von Person A encodiert und       wieder vom Markt genommen worden, da
im Anschluss mit Decoder A nachgestellt.      die Angst vor einem Missbrauch des
Anschließend folgt das gleiche Training mit   Materials zu groß ist und die App zu
schnell zu viel Aufsehen erregt hat [16],       eines Gesichts auf einen anderen
[17]. Es zeigt sich, dass im Bereich            Schauspieler deutlich vorteilhafter und
Pornografie eine große Nachfrage für die        ggf. auch realistischer durchgeführt
Deepfake Technologie existiert. Dies            werden. Nötig wäre dies zum Beispiel im
bestätigt auch eine Studie des                  Film „Fast and Furious 7“ gewesen, als
niederländischen Unternehmens                   Hauptdarsteller Paul Walker während der
Deeptrace, die im Oktober 2019                  Dreharbeiten verstarb. Die Filmcrew hat
veröffentlicht wurde. Hierbei kam heraus,       zur damaligen Zeit allerdings auf die
dass von knapp 15.000 Deepfake Videos,          Brüder des verstorbenen zurückgegriffen
96% pornografische Videos waren.                und mit ihnen die letzten Szenen
Vorwiegend seien Deepfakes mit                  abgedreht [23].
Prominenten entstanden, wie dies auch           Auch im Bereich der
initial bei Reddit der Fall war [18]. Je        Lippensynchronisation kann die
besser die Technologie, desto höher auch        Filmbranche Deepfakes nutzen, um in
die Täuschungsgefahr dieser Videos.             verschiedenen Sprachen die
Dadurch wird auch die Angst vor                 Mundbewegungen realistischer darstellen
Missbräuchen, nicht nur bei Prominenten,        zu können. So muss die Übersetzung des
sondern auch bei Privatpersonen größer.         zu sprechenden Textes nicht mehr an die
So ereignet sich in Australien der Fall, dass   Lippen des Videomaterials angepasst,
Noelle Martin Opfer eines Deepfakes in          sondern kann durch die Animation gezeigt
diversem Pornomaterial wurde. Als die           werden [24].
damals 17-Jährige das Material entdeckt,        Dem Trend der Deepfakes in der
setzte sie sich im Anschluss erfolgreich für    Filmbranche verfolgt auch Disney. Der
ein Verbot in Australien ein. Das Gesetz        Konzern hat in London auf der
wurde 2018 verabschiedet und bestraft           Animationsmesse Eurographics
nun den Missbrauch von Deepfakes mit            Symposium einen Algorithmus zur
einer mehrjährigen Haftstrafe [19], [20].       besseren Übereinanderlegung von
                                                Quellmaterialien vorgestellt. Technisch
Filmbranche: Auch in der Filmbranche gibt       verwendet Disney höher aufgelöste Fotos,
es diverse Einsatzmöglichkeiten von             bessere Stabilisierungstechniken und
Deepfakes. Die chinesische Deepfake App         automatische Licht- und
„ZAO“ beispielsweise wurde 2019                 Kontrastanpassungen für das Training.
veröffentlicht und ging innerhalb kürzester     Dadurch soll der US-Konzern im Vergleich
Zeit viral. Mithilfe der App war es möglich     zu anderen Technologien in der Lage sein,
mittels eines Selfies das eigene Gesicht auf    Clips mit einer Auflösung von 1024 x 1024
verschiedene Videos per Deepfake zu             darzustellen. Diese sind deutlich schärfer
animieren. Aufgrund fragwürdiger AGBs           und werden inzwischen auch als
geriet die App allerdings wieder in Verruf      „Megapixel-Deepfakes“ bezeichnet.
und ist seitdem nicht mehr so beliebt.          DeepFaceLab zum Vergleich, kann
Nichtsdestotrotz ist es für Nutzer eine         hingegen nur 256 x 256 Pixel als Output
einfache und schnelle Variante mit              darstellen, da sonst der Effekt des
Deepfakes in Berührung zu treten [21]. Ein      Deepfakes nicht mehr funktioniert. Es
adäquates Pendant hierzu, ohne die              zeigt sich zugleich also auch, dass es noch
genannten Sicherheitsbedenken, wäre die         ein langer Weg ist, bis Videomaterialien
App „Reface“ [22].                              mit Full HD und Ultra HD per Deepfake
Neben der Unterhaltung haben Deepfakes          dargestellt werden können [25], [26].
in der Filmindustrie aber auch einen            Ein weiteres Einsatzgebiet von Deepfakes
anderen Nutzen: So kann die Montage             ist außerdem die Unkenntlichmachung
von Menschen in Videos. Inzwischen gibt         daraus die künstlichen Tulpen darzustellen
es verschiedene Ansätze, die zeigen, dass       [29].
das klassische Unkenntlich machen von
Personen durch Verpixelung des Gesichts
keine adäquate Lösung mehr ist, die
Identität der Person zu wahren. In
Abhängigkeit zum gewählten Verfahren
kann so die Erfolgsquote bei bis zu 98%
liegen, sodass eine künstliche Intelligenz
das Originalbild nach einer Verpixelung
wiedererkennen kann [27]. Aufgrund
dessen gibt es noch eine andere
Möglichkeit die Anonymität zu schützen.
Die Schattenwand gilt als ein relativ
sicheres Verfahren, kann aber keine
Mimiken und Gestiken richtig darstellen,        Abbildung 2: Bildinstallation Mosaic Virus [29]
weswegen es aktuell nicht die beste
Methode ist. Die HBO Serie „Welcome to          Medizin: Project Revoice ist ein Beispiel
Chechnya“ hat daher zum Schutz vor der          für Deepfakes im Bereich der Medizin.
Verfolgung von Mitgliedern der LBGT-            Hierbei wird die Technologie verwendet,
Gemeinde in Tschetschenien diese mittels        um chronische Krankheiten, die den
Deepfakes unkenntlich gemacht. Die              Stimmenverlust zur Folge haben, eine
Bilderbasis stammt hier von freiwilligen        authentische Stimme zurückzugeben. Das
Spenden der eigenen Gesichter, wodurch          Projekt bietet verschiedene Arten, vor
die Protagonisten nicht mehr                    dem Verlust der Stimme, das Netz zu
identifizierbar, dennoch Emotionen und          trainieren. So können beispielsweise Sätze
Gefühle mittels „anderer“ Gesichter             eingesprochen werden, um das neuronale
darstellbar sind [28].                          Netz zu trainieren. Im Fall von Pat Quinn,
Kunst: In der Kunstszene können                 der Co-Founder der Ice Bucket Challenge,
Deepfakes ebenfalls ihren Einsatzzweck          war dies nicht mehr möglich. Die Ice
finden. Die britische Künstlerin Anna           Bucket Challenge war eine Spendenaktion,
Ridler, welche ihre Kunst bereits im Haus       mit dem Zweck, Gelder für ALS erkrankte
der elektronischen Künste in Basel, aber        zu sammeln und zugleich Aufmerksamkeit
auch in London oder Linz ausstellt, nutzt       für die nicht heilbare degenerative
Deepfakes für ihre Arbeit. Die Ausstellung      Erkrankung zu schaffen. Pat Quinn ist
„Mosaic Virus“ ist eine Installation von        ebenfalls an ALS erkrankt. In seinem Fall
2019, bei welcher drei Bildschirme              war das Einsprechen der Trainingssätze für
verschiedene durch Deepfake generierte          Project Revoice zu spät. Da er aber in der
Tulpen darstellen. Es soll ein Stillleben des   Öffentlichkeit sehr präsent war und es
21. Jahrhunderts darstellen und zeigen,         diverse Videoaufnahmen von ihm gab,
dass Deepfakes auch in der Kunst ihren          haben die Entwickler diese Aufnahmen
Mehrwert liefert. Das Trainingsmaterial         verwendet, um daraus via Deepfake seine,
sammelte die Künstlerin in Amsterdam            inzwischen verlorene Stimme, technisch
während der Tulpensaison. Grundlage             zu reproduzieren. Der Vorteil gegenüber
hierfür waren 20 000 Ablichtungen von           einem Sprachcomputer soll sein, dass das
Tulpen, die von Hand klassifiziert wurden,      Sprechen sich für den Erkrankten wieder
um ein neuronales Netz zu trainieren und        natürlicher anfühlt, da es die eigene
                                                Stimme ist, die künstlich über einen
                                                Lautsprecher ausgegeben wird [30].
Politik: Der Missbrauch von Deepfakes in        in Malaysia verboten sind, gab es einen
sozialen Medien ist relativ groß, weil sich     öffentlichen Aufschrei. Dieser wurde
Falschnachrichten dort schnell verbreiten.      allerdings im Keim erstickt, da die
Vor allem bei einem Medium, wie einem           Regierung behauptet hat, dass es sich um
Mobiltelefon, ist es relativ simpel den         eine Videomanipulation handle, mit dem
Zuschauer zu täuschen, ohne eine                Ziel die Karriere des Ministers zu
sonderlich hohe Qualität im Video               sabotieren. Auch wenn unabhängige
vorzuweisen. Dafür werden Informationen         Wissenschaftler den Deepfake nicht
in sozialen Medien zu schnell konsumiert        nachweisen konnten und daher dazu
und die Displays sind zu klein, um zum          plädierten, dass das Video echt sei, konnte
Beispiel Bildartefakte zu erkennen. Eine        so ein öffentlicher Eklat vermieden
Gefahr, die daraus hervorgeht, sind             werden. Wieder stellt sich die Frage, ob
Filterblasen. Sogenannte                        bislang belastbare Quellen, wie Audio-
„Meinungsmache“ kann geschürt werden,           und Videoaufnahmen weiterhin verlässlich
indem Nutzer aktiv durch Deepfakes              sind [32].
manipuliert werden. Allerdings sagen            Identifikation: Auch zur Identifikation und
Experten auch, dass auf der anderen Seite       Fälschung von Persönlichkeiten können
größere Gefahren, wie beispielsweise ein        Deepfakes verwendet werden. Hieraus
Krieg, nicht durch Deepfakes verursacht         zeigt sich auch eine der größten Bedenken
werden können. Grund zu der Annahme             von Deepfakes von Seiten der
ist, dass Geheimdienste bereits jetzt           Bundesregierung [33]. Video-Ident-
mithilfe von aufwändiger                        Verfahren sind inzwischen ein gängiges
Hollywoodtechnik z.B. politische Hetze          Mittel, um sich beispielsweise für ein
schüren könnten, dies aber keinen Krieg         neues Online-Konto zu authentifizieren.
auslöst [19].                                   Dabei wird ein Videoanruf, in aller Regel
Eine andere Gefahr, die von Deepfakes in        mit einem Dienstleister der Bank,
dem Kontext Politik ausgeht, ist der            durchgeführt. Der Dienstleister prüft
Zweifel, an bislang vertrauenswürdigen          dann, ob das Gesicht mit dem
Quellen, wie Audio- oder                        Personalausweis übereinstimmt, ob alle
Videoaufnahmen. Nachdem eine alte               Sicherheitsmerkmale auf dem
Tonaufnahme von 2005 über Donald                Personalausweis vorhanden sind und ob
Trump, kurz vor den Wahlen,                     die Angaben, mit denen auf dem Ausweis,
veröffentlicht wurde, in der er sich abfällig   übereinstimmen. In Folge dessen können
über Frauen äußert, hat sich Trump              Deepfakes verwendet werden, um sich für
öffentlich entschuldigt. Im Nachgang            eine andere Person auszugeben.
allerdings hat er gesagt, dass es sich um       Beispielsweise könnte ein Angreifer den
einen Deepfake handle und daher das             Personalausweis einer anderen Person
Thema für ihn erledigt sei. Ob es nun           stehlen oder fälschen und daraufhin per
tatsächlich ein Deepfake war oder nicht         Video-Ident-Verfahren im Namen der
bleibt ungeklärt [31]. Ein anderes Beispiel     Person mit einem Deepfake exemplarisch
hat sich im Juni 2019 in Malaysia               ein Konto eröffnen. Da die
zugetragen. Ein politischer Skandal wurde       Videotelefonate in der Regel per
ausgelöst, als ein Sextape veröffentlicht       Handykamera durchgeführt werden, fällt
wurde, welches den Wirtschaftsminister          darüber hinaus auch nicht auf, ob die
Armin Ali mit einem männlichen                  Qualität des Deepfakes nicht einwandfrei
rivalisierenden Minister beim                   ist [33]. Ein weiteres Verfahren, um sich
Geschlechtsakt zeigt. Da                        für eine andere Person auszugeben, ist das
gleichgeschlechtliche sexuelle Handlungen       Fälschen der Stimme einer Person, zum
Beispiel am Telefon. Dazu hat sich bereits
ein Fall im Jahr 2019 ereignet. Cyber
Kriminelle haben mithilfe eines Deepfakes
den CEO eines Energieunternehmens aus
Großbritannien getäuscht. Dieser glaubte
mit dem Chef des deutschen
Mutterkonzerns zu telefonieren, welcher
ihn veranlasste eine Überweisung in Höhe
von 220 000€ durchzuführen. Der falsche
Chef ordnete an, dass an einen
ungarischen Dienstleister der Betrag
                                             Abbildung 3: Portätfoto des Briten Oliver Taylor (links)
überwiesen werden soll. Dabei hat er         sowie einer Darstellung der Heatmap des Unternehmens
Druck auf den Angestellten ausgeübt, dass    Deepfake Detection Company Cyabra. Gefärbte Bereiche
das Geld binnen einer Stunde überwiesen      deuten hierbei auf eine Fälschung hin [35].

sein soll. Nach Angaben des Briten habe      Allerdings gibt es auch positive
sich die Stimme für ihn authentisch          Einsatzzwecke im Bereich der Deepfakes
angehört, was zeigt, wie weit die            und Identitätsschutz: So kann
Fälschung von Stimmen bereits geht und       beispielsweise Filmmaterial, welches
welche Gefahr beim Identitätsklau mit        während einer Testfahrt für das autonome
Deepfakes ausgehen kann [34]. Schließlich    Fahren aufgenommen wurde mit
können Deepfakes auch zur Tarnung und        Deepfakes verbessert werden. Zum Schutz
anonymen Handeln missbraucht werden.         der Persönlichkeitsrechte kann die Technik
So auch der Fall bei Oliver Taylor, ein      Gesichter aufgenommener Personen
freier Redakteur mit Schwerpunkt             austauschen. Ein Trainingsnetz kann
Antisemitismus, der für Zeitungen, wie die   infolgedessen trotzdem mit echten
Jerusalem Post und die Times of Israel       menschlichen Gesichtern trainiert werden,
arbeitet. Nachdem er einen Artikel           trotzdem bleiben Passanten anonym für
veröffentlicht hat, in dem der Akademiker    die künstliche Intelligenz.
Mazen Masri und seine Frau Ryvka
Barnard, die sich für die Rechte von         Schutzmaßnahmen
Palästinensern einsetzt, als “bekannte       Da es einige nützliche Einsatzzwecke von
Sympathisanten des Terrorismus”              Deepfakes gibt, jedoch auch manche
bezeichnete, fing Reuters an nach dem        Gefahren von ihnen ausgehen, soll im
Autor zu recherchieren. Die                  Folgenden auf Schutzmaßnahmen
Nachrichtenagentur fand heraus, dass         eingegangen werden. Dabei kann die
dieser Autor nicht existiert. Angaben der    Gefahr, hervorgerufen durch Deepfakes,
Universität, Telefonnummer und E-Mails       auf drei Kernbereiche eingegrenzt
waren nicht echt und auch sein Profilbild    werden: Zum einen das Manipulieren von
ließ auf einen Deepfake schließen. Da die    Meinungen durch falsche Inhalte, was vor
Zeitungen keine Kontrollmechanismen für      allem für Social Media eine Gefahr
Autoren haben, Artikel nur via E-Mail        darstellt. Dazu verbunden der Bereich der
angenommen wurden und Oliver keine           Politik. Hierbei kann sowohl die
Bezahlung forderte, war es für den Autor     Manipulation aber auch die Sabotage
möglich, eine falsche Identität              ausschlaggebend sein. Letzter Kernbereich
anzunehmen. Das Deepfake Porträtbild         ist der Identitätsdiebstahl und die
machte das Profil noch glaubwürdiger         Fälschung einer Identität, da der Mensch
[35].                                        bislang davon ausging, dass Quellen, wie
Audio- und Videoaufnahmen als belastbar      dem Gesetz zum Verbot von Deepfakes in
und verlässlich galten.                      Australien wurde im Oktober 2019 in
                                             Kalifornien für 60 Tage das Verbreiten von
Ausgehend vom ersten Kernbereich der         „materially deceptive audio or visual
Gefahr hat Facebook zusammen mit             media“ in Bezug auf die Kandidatur, kurz
einigen Partnern, wie Microsoft oder         vor der Wahl, verboten [33]. In
Amazon die „Deepfake Detection               Deutschland hingegen ist dieser
Challenge“ kurz: DFDC ins Leben gerufen.     Rechtsraum allerdings nicht so eindeutig
Bei der Challenge haben 2114 Teilnehmer      gesetzlich geregelt.
insgesamt 35 000 KI-Modelle eingereicht.
Ziel war Deepfakes von realen Videos zu      Ein weiterer denkbarer Lösungsweg wäre
unterscheiden, wobei die Modelle zuvor       die verpflichtende Einbindung eines
nicht mit dem Material trainiert wurden.     digitalen Wasserzeichens, welches
Es handelte sich folglich um                 Rückschlüsse über die Produktion des
„ungesehenes“ Material, welches mehr als     Videos und die Verbreitungswege,
100 000 Videos umfasste. Um die              beispielsweise durch die Blockchain
Erkennung noch schwieriger zu machen,        Technologie, ermöglichen könnte [39].
enthielten die Videos darüber hinaus
Elemente, die die Erkennungssysteme          Im Bereich des Identitätsklaus gibt es
verwirren sollten: Beispielsweise ein        inzwischen auch Schutzmaßnahmen. Vor
Makeup-Tutorial, bei der eine Person         allem bei Audioaufnahmen gibt es
geschminkt wird, Videos, welche durch        verschiedene Verfahren, um Fälschungen
Einfügen von Text und Formen über den        durch Deepfakes von echten zu
Gesichtern der Sprecher ablenken sollten,    unterscheiden: So hat das Frauenhofer-
das Ändern von Auflösung oder der            Institut eine künstliche Intelligenz
Ausrichtung sowie langsameres und            entwickelt, welche es ermöglicht den
schnelleres Abspielen eines Videos. Das      Unterschied zwischen Textbausteinen und
Modell erlangte hierbei eine Accuracy von    gesprochener Stimme zu erkennen [40].
65%. In Folge der Nominierung wurde          Außerdem können Schwankungen in den
gesagt, dass das beste Modell sehr gut, in   Netzfrequenzen anhand von
Anbetracht der schwierigen Bedingungen       Audioaufnahmen identifiziert werden. Da
agiert hat, jedoch das System trotzdem       das Stromnetz nicht immer exakt 50 Hertz
nicht gut genug sei, um auf den Social       liefert, kann in den Audioaufnahmen das
Media Plattformen dauerhaft zum Einsatz      Aufzeichnungsdatum abgeglichen werden.
zu kommen [36], [37].                        Da diese Audiocharakteristiken über Jahre
                                             aufgezeichnet wurden, kann so die
Während der US-Wahlen 2020 sollen            Validitätsprüfung stattfinden [39].
Deepfakes von den Plattformen jedoch
mithilfe dieser Techniken gesondert          Erkennungssoftware und deren
beobachtet und verbannt werden. Hierfür      Manipulation
haben Facebook, YouTube und Twitter          Eine Erkennungssoftware, die im
bereits Anfang des Jahres ihr Regelwerk      Gegensatz zu den Modellen der DFDC mit
für Anti-Deepfake-Paragraphen erweitert.     bereits gesehenem Material trainiert
Demnach sind satirische und parodistische    wurde, nennt sich FaceForensics++ und
Inhalte weiterhin erlaubt, manipulative      wurde im Jahr 2019 vorgestellt. Als
Inhalte jedoch verboten [38].                Datenbasis wurden hierbei YouTube
Auch in der Politiksparte gibt es            Videos verwendet, welche mit
Schutzmaßnahmen. Neben beispielsweise        verschiedenen Techniken, wie FaceSwap
oder Face2Face manipuliert und im                             Die Erfolgsrate unterscheidet sich
Anschluss mit drei verschiedenen                              dahingehend, ob es sich um eine
Videoqualitäten von der Software                              Whitebox-Attacke oder eine Blackbox-
untersucht wurden. Eine dazu passende                         Attacke handelt und ob das Video vor der
Nutzerstudie hat gezeigt, dass vor allem                      Erkennung komprimiert wird. Im Fall der
mit sinkender Qualität die Erkennung                          Whitebox-Attacke ist die Erkennung meist
durch das menschliche Auge deutlich                           am einfachsten, da die Architektur des
schlechter wird. FaceForensics++ hingegen                     Detektors sowie die Arbeitsweise und
kann hier noch deutlich bessere                               verwendete Parameter bekannt sind. In
Ergebnisse erzielen. Dazu wurde ein                           diesem Fall liegt die Erkennung bei nahezu
automatischer Classifier entwickelt,                          100%. Bei einer Blackbox-Attacke sinkt
welcher auf Grundlage von Artefakten in                       diese in Abhängigkeit zur gewählten
den Bildern, neben dem gewählten                              Erkennung um 5 bzw. 15 Prozentpunkte.
Manipulationsmodell (Face2Face,                               Wird allerdings das Video komprimiert,
FaceSwap, usw.) auch klassifizieren                           liegt die Täuschungsrate in Abhängigkeit
konnte, ob es sich um eine Fälschung                          zum Erkennungsmodell nur noch bei 58%
handelt oder nicht. Darüber hinaus kann                       bzw. 92% [42].
das Modell auch feststellen, an welcher
Stelle im Bild die Manipulation zum                           Es zeigt sich also, dass das Wechselspiel
Einsatz kommt [41].                                           zwischen Erkennung und Täuschung
                                                              mithilfe von KI im Bereich Deepfakes über
Ein Jahr später folgte das Paper                              die Zeit immer weiter vorangetrieben
„Adversarial Deepfakes“, welches sich zum                     wird.
Ziel gesetzt hat, die Erkennung von z.B.
FaceForensics++ wiederrum zu täuschen.                        Fazit
Dazu wird als Grundlage eine Adversarial                      Festzuhalten ist, dass es nicht nur negative
Attack verwendet, die auf einem                               Seiten von Deepfakes gibt, wie es häufig
normalen Bild ein künstlich erzeugtes                         von den Medien dargestellt wird. Vor
Rauschen hinzuaddiert. Für das                                allem die positiven Seiten von Deepfakes
menschliche Auge sieht das Bild immer                         können einen Mehrwert für die
noch gleich aus, jedoch extrahiert die                        verschiedensten Bereiche bringen. Dabei
künstliche Intelligenz aufgrund des                           zeigt sich, dass mit fortschreitender
Rauschens andere Kernmerkmale aus dem                         Technik die Entwicklung von Deepfakes
Bild, was anschließend zu einer                               zunimmt. Der Aufwand wird immer
Fehlinterpretation führt [42].                                geringer Deepfakes zu erzeugen und
                                                              zugleich wird die Technik immer leichter
                                                              zugänglich für Privatpersonen. Außerdem
                                                              ist auch ein Trend zu verzeichnen, dass die
                                                              Qualität immer besser wird. Vor allem im
                                                              Bereich der Filmbranche kann eine
Abbildung 4: Beispiel einer Adversarial Attack - Links ein    Verbesserung der Qualität auf Full HD
Bild eines Schweins, welches nach dem Hinzufügen des          bzw. Ultra HD einen großen
Rauschens von der KI als "airliner" klassifiziert wird. Für   Innovationsschritt bedeuten, da
das menschliche Auge gibt es keinen Unterschied zu
erkennen [43].                                                aufwändige Effekte deutlich schneller und
                                                              kostensparender umgesetzt werden
Durch diese Angriffsmethode können                            können.
folglich automatische Erkennungen                             Trotzdem sollte man auch die Gefahren im
getäuscht werden.                                             Bereich der Social Media nicht außer Acht
lassen. Es ist wichtig, dass weiterhin an      Juli 2017, doi: 10.1145/3072959.3073640.
Erkennungsmechanismen geforscht wird,          [6]     J. Vincent, „New AI research makes
um die Nutzer zu schützen. Darüber             it easier to create fake footage of
hinaus sollte auch die Gesetzeslage in         someone speaking“, The Verge, Juli 12,
Deutschland überarbeitet werden. Bislang       2017.
fehlt es hier an einer einheitlichen           https://www.theverge.com/2017/7/12/15
gesetzlichen Regelung, die eindeutig eine      957844/ai-fake-video-audio-speech-
Grenze zwischen einer zulässigen               obama (zugegriffen Sep. 22, 2020).
Bearbeitung von Videos und deren               [7]     „Deepfakes“, IONOS Digitalguide.
Verbreitung und unzulässigen                   https://www.ionos.de/digitalguide/online-
Täuschungen ziehen kann. Dies liefert          marketing/social-media/deepfakes/
zwar keinen vollumfänglichen Schutz vor        (zugegriffen Sep. 22, 2020).
Deepfakes und Fake News, kann aber eine        [8]     S. N. Germany Stuttgart, „Video-
Absicherung sein. Schließlich sollte auch in   Manipulation im Internet: Deepfakes –
der Gesellschaft das Misstrauen                Fake News auf dem nächsten Level?“,
gegenüber Video- und Audiodateien              stuttgarter-nachrichten.de.
größer werden. Es muss eine Aufklärung         https://www.stuttgarter-
stattfinden, um zu zeigen, wie weit die        nachrichten.de/inhalt.video-manipulation-
Technik heutzutage ist, um bislang             im-internet-deepfakes-fake-news-auf-
verlässlichen Audio- und Videoquellen          dem-naechsten-level.9a5c74bd-450a-
mehr Skepsis entgegenzubringen.                40b8-8cc1-f9d47306132b.html
                                               (zugegriffen Sep. 22, 2020).
Quellen                                        [9]     „Deepfakes FakeApp“.
[1]    „Infografik: Künstliche Intelligenz,    https://www.heise.de/download/product/
Chance oder Riskio?“, Statista                 deepfakes-fakeapp (zugegriffen Sep. 22,
Infografiken.                                  2020).
https://de.statista.com/infografik/16394/      [10] iperov,
einsatzgebiet-von-kuenstlicher-intelligenz/    „https://github.com/iperov/DeepFaceLab“
(zugegriffen Sep. 16, 2020).                   , Sep. 22, 2020.
[2]    „Was ist ein Deepfake?“                 https://github.com/iperov/DeepFaceLab
https://www.bigdata-insider.de/was-ist-        (zugegriffen Sep. 22, 2020).
ein-deepfake-a-915237/ (zugegriffen Sep.       [11] E. Zakharov, A. Shysheya, E.
22, 2020).                                     Burkov, und V. Lempitsky, „Few-Shot
[3]    C. Bregler, M. Covell, und M.           Adversarial Learning of Realistic Neural
Slaney, „Video Rewrite: driving visual         Talking Head Models“, ArXiv190508233
speech with audio“, in Proceedings of the      Cs, Mai 2019, Zugegriffen: Sep. 22, 2020.
24th annual conference on Computer             [Online]. Verfügbar unter:
graphics and interactive techniques -          http://arxiv.org/abs/1905.08233.
SIGGRAPH ’97, Not Known, 1997, S. 353–         [12] A. Zucconi, „Understanding the
360, doi: 10.1145/258734.258880.               Technology Behind DeepFakes“, Alan
[4]    J. Thies, M. Zollhöfer, M.              Zucconi, März 14, 2018.
Stamminger, C. Theobalt, und M. Nießner,       https://www.alanzucconi.com/2018/03/1
„Face2Face: Real-time Face Capture and         4/understanding-the-technology-behind-
Reenactment of RGB Videos“.                    deepfakes/ (zugegriffen Sep. 22, 2020).
[5]    S. Suwajanakorn, S. M. Seitz, und I.    [13] „r/announcements - Update on
Kemelmacher-Shlizerman, „Synthesizing          site-wide rules regarding involuntary
Obama: learning lip sync from audio“,          pornography and the sexualization of
ACM Trans. Graph., Bd. 36, Nr. 4, S. 1–13,     minors“, reddit.
https://www.reddit.com/r/announcement       Foto und Videos – Apps bei Google Play“.
s/comments/7vxzrb/update_on_sitewide_       https://play.google.com/store/apps/detail
rules_regarding_involuntary/ (zugegriffen   s?id=video.reface.app&hl=de (zugegriffen
Sep. 22, 2020).                             Sep. 22, 2020).
[14] „Reddit bans ‘deepfakes’ AI porn       [23] S. Zeitung, „‚Fast and Furious‘ Paul
communities - The Verge“.                   Walkers Brüder bringen Film zu Ende“,
https://www.theverge.com/2018/2/7/169       Süddeutsche.de.
82046/reddit-deepfakes-ai-celebrity-face-   https://www.sueddeutsche.de/kultur/fast
swap-porn-community-ban (zugegriffen        -and-furious-7-brueder-springen-fuer-
Sep. 22, 2020).                             paul-walker-ein-1.1938770 (zugegriffen
[15] J. Roettgers und J. Roettgers,         Sep. 22, 2020).
„Naughty America Wants to Monetize          [24] „Deepfakes: Sind manipulierte
Deepfake Porn“, Variety, Aug. 20, 2018.     Videos eine Gefahr?“, MAZ - Märkische
https://variety.com/2018/digital/news/de    Allgemeine. https://www.maz-
epfake-porn-custom-clips-naughty-           online.de/Nachrichten/Digital/Deepfakes-
america-1202910584/ (zugegriffen Sep.       Sind-manipulierte-Videos-eine-Gefahr
22, 2020).                                  (zugegriffen Sep. 22, 2020).
[16] „Creator of DeepNude, App That         [25] „Deepfakes bei Disney und in
Undresses Photos of Women, Takes It         Dokus: Die Porno-Technologie ist in
Offline“.                                   Hollywood angekommen“, stern.de.
https://www.vice.com/en_us/article/qv7a     https://www.stern.de/digital/online/deep
gw/deepnude-app-that-undresses-photos-      fakes-bei-disney-und-in-dokus--die-porno-
of-women-takes-it-offline (zugegriffen      technologie-ist-in-hollywood-
Sep. 22, 2020).                             angekommen-9320088.html (zugegriffen
[17] „deepnudeapp (@deepnudeapp) /          Sep. 22, 2020).
Twitter“, Twitter.                          [26] M. Schreiner, „Disney entwickelt
https://twitter.com/deepnudeapp             Megapixel-Deepfakes fürs Kino“, MIXED |
(zugegriffen Sep. 22, 2020).                News zu VR, AR und KI, Juli 01, 2020.
[18] „Mapping the Deepfake                  https://mixed.de/disney-entwickelt-
Landscape“, Sensity, Okt. 07, 2019.         megapixel-deepfakes-fuers-kino/
https://sensity.ai/mapping-the-deepfake-    (zugegriffen Sep. 24, 2020).
landscape/ (zugegriffen Sep. 22, 2020).     [27] V. Tischbein, „Verpixelung macht
[19] „Künstliche Intelligenz: Deepfakes     unsichtbar - oder doch nicht?“,
– darum sollten wir besorgt sein“.          netzpolitik.org, Sep. 15, 2016.
https://www.zdf.de/uri/d2399b9f-ba10-       https://netzpolitik.org/2016/verpixelung-
480c-be90-7108e65d0db1 (zugegriffen         macht-unsichtbar-oder-doch-nicht/
Sep. 22, 2020).                             (zugegriffen Sep. 22, 2020).
[20] A. told to D. Scott, „Deepfake Porn    [28] R. Heilweil, „How deepfakes could
Nearly Ruined My Life“, ELLE, Feb. 06,      actually do some good“, Vox, Juni 29,
2020. https://www.elle.com/uk/life-and-     2020.
culture/a30748079/deepfake-porn/            https://www.vox.com/recode/2020/6/29/
(zugegriffen Sep. 22, 2020).                21303588/deepfakes-anonymous-
[21] „Chinesische Deepfake-App sorgt        artificial-intelligence-welcome-to-
für Aufregung – die User-Videos sind        chechnya (zugegriffen Sep. 22, 2020).
krass!“, watson.ch.                         [29] „Mosaic Virus, 2019“, ANNA
https://www.watson.ch/!549945806            RIDLER. http://annaridler.com/mosaic-
(zugegriffen Sep. 22, 2020).                virus (zugegriffen Sep. 22, 2020).
[22] „REFACE: Gesichter austauschen in      [30] „Home - Project Revoice“.
https://www.projectrevoice.org/               gegen-deepfakes.html (zugegriffen Sep.
(zugegriffen Sep. 22, 2020).                  24, 2020).
[31] M. Haberman und J. Martin,               [41] A. Rössler, D. Cozzolino, L.
„Trump Once Said the ‘Access Hollywood’       Verdoliva, C. Riess, J. Thies, und M.
Tape Was Real. Now He’s Not Sure.“, The       Nießner, „FaceForensics++: Learning to
New York Times, Nov. 28, 2017.                Detect Manipulated Facial Images“,
[32] N. Ker, „Is the political aide viral     ArXiv190108971 Cs, Aug. 2019,
sex video confession real or a Deepfake? |    Zugegriffen: Sep. 24, 2020. [Online].
Malay Mail“.                                  Verfügbar unter:
https://www.malaymail.com/news/malay          http://arxiv.org/abs/1901.08971.
sia/2019/06/12/is-the-political-aide-viral-   [42] P. Neekhara, S. Hussain, M. Jere, F.
sex-video-confession-real-or-a-               Koushanfar, und J. McAuley, „Adversarial
deepfake/1761422 (zugegriffen Sep. 22,        Deepfakes: Evaluating Vulnerability of
2020).                                        Deepfake Detectors to Adversarial
[33] „Antwort der Bundesregierung auf         Examples“, ArXiv200212749 Cs, März
die Kleine Anfrage der Abgeordneten           2020, Zugegriffen: Sep. 24, 2020. [Online].
Manuel Höferlin, Frank Sitta, Grigorios       Verfügbar unter:
Aggelidis, weiterer Abgeordneter und der      http://arxiv.org/abs/2002.12749.
Fraktion der FDP“, 19/15657, Dez. 2019.       [43] K. S. Sivamani, „The unusual
[34] C. Stupp, „Fraudsters Used AI to         effectiveness of adversarial attacks“,
Mimic CEO’s Voice in Unusual Cybercrime       Medium, Juli 31, 2019.
Case“, Wall Street Journal, Aug. 30, 2019.    https://medium.com/@smkirthishankar/t
[35] R. Satter, „Deepfake used to attack      he-unusual-effectiveness-of-adversarial-
activist couple shows new disinformation      attacks-e1314d0fa4d3 (zugegriffen Sep.
frontier“, Reuters, Juli 15, 2020.            24, 2020).
[36] „Deepfake Detection Challenge
Dataset“.
https://ai.facebook.com/datasets/dfdc
(zugegriffen Sep. 24, 2020).
[37] B. Dolhansky u. a., „The DeepFake
Detection Challenge Dataset“,
ArXiv200607397 Cs, Juni 2020,
Zugegriffen: Sep. 24, 2020. [Online].
Verfügbar unter:
http://arxiv.org/abs/2006.07397.
[38] M. Bastian, „TikTok: Deepfake-
Bann zur US-Wahl 2020“, MIXED | News
zu VR, AR und KI, Aug. 05, 2020.
https://mixed.de/tiktok-deepfake-bann-
zur-us-wahl-2020/ (zugegriffen Sep. 24,
2020).
[39] N. Lossau, „Gefahren,
Herausforderungen“, S. 9, 2020.
[40] „Kampfansage an Deepfakes -
Fraunhofer IDMT“, Fraunhofer-Institut für
Digitale Medientechnologie IDMT.
https://www.idmt.fraunhofer.de/de/Press
_and_Media/press_releases/2019/kampf-
Sie können auch lesen