Whitepaper zum Thema "Deepfakes" - EDV-NR: 253504A AKTUELLE THEMEN ARON KÖCHER, MATRIKEL NR: 38372 - Institute for Applied AI
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
Hochschule der Medien SS 2020 Whitepaper zum Thema “Deepfakes” EDV-NR: 253504A AKTUELLE THEMEN ARON KÖCHER, MATRIKEL NR: 38372
Einleitung wurde ein weiteres Paper veröffentlicht, Bei einer Bitkom Research-Umfrage im welches es ermöglicht, in Echtzeit die Jahr 2018 wurden über 1000 Teilnehmer Mimiken eines Gesichts auf eine Person in gefragt, ob sie eher Chancen oder Risiken einem Video zu animieren [4]. Ein Jahr in der künstlichen Intelligenz sehen. 62% darauf folgte dann die Veröffentlichung antworteten, dass sie eine klare Chance eines Programms, bei dem der ehemalige sehen und fast jeder 5. glaubt, künstliche Präsident der USA Barack Obama per Intelligenz verändert bereits jetzt unsere Deepfake dargestellt wurde. Hierbei ist Gesellschaft spürbar. Allerdings haben deutlich ein Qualitätssprung in der 35% gemeint, dass künstliche Intelligenz Entwicklung zu erkennen und erste ein Risiko darstellen kann [1]. Ein Beispiel Medien fingen an Deepfakes genauer zu für ein potentielles Risiko von künstlicher betrachten, um auch auf mögliche Intelligenz sind Deepfakes. In der Gefahren hinzuweisen [5], [6]. Folglich gab folgenden Ausarbeitung soll sowohl es auch die ersten Deepfakes im privaten gezeigt werden, was Deepfakes sind, wie Bereich. Ein Nutzer namens „deepfakes“ sie funktionieren und welche hat im Dezember 2017 auf der Social- Einsatzgebiete es gibt. Außerdem soll die News-Plattform Reddit diverse, eigens Frage beantwortet werden, ob und welche erstellte Pornovideos, hochgeladen. In Risiken von Deepfakes ausgehen können diesen Videos wurden Gesichter von und wie man die Risiken einschränken Pornostars mit denen von Scarlett kann. Johansson, Taylor Swift und der Wonder Woman Darstellerin Gal Gadot Definition ausgetauscht [7], [8]. Anfang 2018 folgte Als „Deepfake“ werden realistisch daraufhin mit FakeApp eine Desktop wirkende Bild-, Audio oder Anwendung, die Deepfakes relativ Videomaterialien bezeichnet, die mit Hilfe benutzerfreundlich Privatpersonen von künstlicher Intelligenz manipuliert zugänglich machte [9]. Hierbei wird das wurden. Dabei kommen in erster Linie Gesicht in einem Video ausgetauscht. Verfahren aus dem Machine Learning zum Kurze Zeit später folgte dann auch die Einsatz, speziell dem Deep Learning. Bereitstellung von DeepFaceLab, einer Dadurch leitet sich auch der Name ab: Anwendung, die nach eigenen Angaben Deepfake ist eine Kombination der mehr als 95% des im Internet englischen Wörter „Deep Learning“ und veröffentlichten Deepfake Materials zu „Fake“ und wurde erstmals 2017 geprägt verantworten hat [10]. 2019 wurde die [2]. Technologie nochmals weiterentwickelt. In einer Kooperation von Samsung mit den Geschichte Wissenschaftlern des Skolkovo Institute of Die folgenden Meilensteine zeigen Science and Technology ist es ihnen einschlägige Ereignisse im Bereich der gelungen, eine Verfahrensweise zu Deepfakes: Bereits im Jahr 1997 wurde ein entwickeln Deepfakes auf Grundlage eines wissenschaftliches Paper zum Thema einzigen Eingabebildes zu erstellen. „Video Rewrite“ veröffentlicht, welches Während dies bei einem Test mit der Videomaterial einer sprechenden Person „Mona Lisa“ relativ realistisch aussieht, ist modifiziert, in dem es die Person beim es allerdings bei anderem Testmaterial Sprechen einer anderen Tonspur zeigt. nicht ganz so realistisch. Dies kann Grundlage zur vollständigen allerdings mit deutlich weniger automatischen Animation der Gesichter Eingabematerial, als bei früheren war hierbei maschinelles Lernen [3]. 2016 Technikständen, verbessert werden [11].
Funktionsweise Person B und Decoder B. Nach dem Wie in nahezu allen Modellen der Training wird der Decoder A aus dem künstlichen Intelligenz wird zunächst Modell von Person A mit dem Decoder Ausgangsmaterial benötigt. Dabei bieten von Person B ausgetauscht und man erhält sich Bewegtbilder, also Videomaterial von so den Deepfake [12]. Personen an, die man manipulieren möchte. Je mehr Ausgangsmaterial vorhanden ist, umso besser kann das Training des Modells erfolgen. Ein Videomaterial aus verschiedenen Perspektiven sowie mit verschiedenen Mimiken macht das Ergebnis noch besser. Es gibt verschiedene Ansätze, um einen Deepfake umzusetzen. Eine gängige Variante ist der Autoencoder. Dieses Abbildung 1: Darstellung des Autoencoders zur Erstellung neuronale Netz erstellt aus einem eines Deepfakes [12] Eingabebild ein digitales Abbild (auch Encoding genannt). Dabei wird das Anwendungsbereiche Eingabebild z.B. durch ein Verfahren wie Pornoindustrie: Wie bereits erwähnt, Max-Pooling verkleinert und auf wurde 2017 der erste Reddit Blogbeitrag wesentliche Kernmerkmale des Bildes im Bereich Deepfakes und Pornos erstellt. reduziert. Auf Grundlage des encodierten Inzwischen allerdings ist der Subreddit Bildes wird im Anschluss versucht das Bild (der Bereich für Deepfakes und möglichst echt künstlich nachzubilden Pornografie) aber von Reddit geschlossen (auch Decoding genannt). Folglich hat das worden und das Hochladen selbiger Decoding das Ziel ein identisches, Deepfakes nicht mehr gestattet [13], [14]. künstliches Abbild des encodierten 2018 folgte ein weiterer Einsatzbereich Eingabebildes zu erzeugen. Um den von Deepfakes in der Pornoindustrie mit Autoencoder noch robuster zu machen, ist einem neuen Geschäftsmodell. Ein US- es außerdem ratsam die Eingabebilder zu Pornostudio veröffentlichte eine Plattform verzerren, Auflösungen zu variieren und für Kunden, bei welchem man ein eigenes die Größe zu verändern. Über die Zeit des Gesicht hochladen kann und das Studio im Trainings wird so das Netz immer besser Anschluss dieses in einen Pornofilm per und der Unterschied zwischen Deepfake einbindet. Darüber hinaus kann Eingangsbild und Ausgangsbild ist nahezu auch die Umgebung, wie beispielsweise nicht mehr vorhanden. eine Aufnahme der eigenen Wohnung, in das Video animiert werden [15]. Im Juni Beim Tausch von zwei Personen wird 2019 ging dann mit DeepNude eine jeweils das Autoencoder Verfahren weitere Plattform im Bereich Deepfakes (bestehend aus Encoder und Decoder) auf an den Start. Hierbei hat der Nutzer die beide Personen angewendet. Hierfür wird Möglichkeit, Frauenbilder hochzuladen allerdings der gleiche Encoder verwendet, und im Anschluss ein Nacktbild dieser aber zwei verschiedene Decoder. Fotos herunterzuladen. Inzwischen ist die Während dem Training wird zuerst Anwendung von den Betreibern aber Bildmaterial von Person A encodiert und wieder vom Markt genommen worden, da im Anschluss mit Decoder A nachgestellt. die Angst vor einem Missbrauch des Anschließend folgt das gleiche Training mit Materials zu groß ist und die App zu
schnell zu viel Aufsehen erregt hat [16], eines Gesichts auf einen anderen [17]. Es zeigt sich, dass im Bereich Schauspieler deutlich vorteilhafter und Pornografie eine große Nachfrage für die ggf. auch realistischer durchgeführt Deepfake Technologie existiert. Dies werden. Nötig wäre dies zum Beispiel im bestätigt auch eine Studie des Film „Fast and Furious 7“ gewesen, als niederländischen Unternehmens Hauptdarsteller Paul Walker während der Deeptrace, die im Oktober 2019 Dreharbeiten verstarb. Die Filmcrew hat veröffentlicht wurde. Hierbei kam heraus, zur damaligen Zeit allerdings auf die dass von knapp 15.000 Deepfake Videos, Brüder des verstorbenen zurückgegriffen 96% pornografische Videos waren. und mit ihnen die letzten Szenen Vorwiegend seien Deepfakes mit abgedreht [23]. Prominenten entstanden, wie dies auch Auch im Bereich der initial bei Reddit der Fall war [18]. Je Lippensynchronisation kann die besser die Technologie, desto höher auch Filmbranche Deepfakes nutzen, um in die Täuschungsgefahr dieser Videos. verschiedenen Sprachen die Dadurch wird auch die Angst vor Mundbewegungen realistischer darstellen Missbräuchen, nicht nur bei Prominenten, zu können. So muss die Übersetzung des sondern auch bei Privatpersonen größer. zu sprechenden Textes nicht mehr an die So ereignet sich in Australien der Fall, dass Lippen des Videomaterials angepasst, Noelle Martin Opfer eines Deepfakes in sondern kann durch die Animation gezeigt diversem Pornomaterial wurde. Als die werden [24]. damals 17-Jährige das Material entdeckt, Dem Trend der Deepfakes in der setzte sie sich im Anschluss erfolgreich für Filmbranche verfolgt auch Disney. Der ein Verbot in Australien ein. Das Gesetz Konzern hat in London auf der wurde 2018 verabschiedet und bestraft Animationsmesse Eurographics nun den Missbrauch von Deepfakes mit Symposium einen Algorithmus zur einer mehrjährigen Haftstrafe [19], [20]. besseren Übereinanderlegung von Quellmaterialien vorgestellt. Technisch Filmbranche: Auch in der Filmbranche gibt verwendet Disney höher aufgelöste Fotos, es diverse Einsatzmöglichkeiten von bessere Stabilisierungstechniken und Deepfakes. Die chinesische Deepfake App automatische Licht- und „ZAO“ beispielsweise wurde 2019 Kontrastanpassungen für das Training. veröffentlicht und ging innerhalb kürzester Dadurch soll der US-Konzern im Vergleich Zeit viral. Mithilfe der App war es möglich zu anderen Technologien in der Lage sein, mittels eines Selfies das eigene Gesicht auf Clips mit einer Auflösung von 1024 x 1024 verschiedene Videos per Deepfake zu darzustellen. Diese sind deutlich schärfer animieren. Aufgrund fragwürdiger AGBs und werden inzwischen auch als geriet die App allerdings wieder in Verruf „Megapixel-Deepfakes“ bezeichnet. und ist seitdem nicht mehr so beliebt. DeepFaceLab zum Vergleich, kann Nichtsdestotrotz ist es für Nutzer eine hingegen nur 256 x 256 Pixel als Output einfache und schnelle Variante mit darstellen, da sonst der Effekt des Deepfakes in Berührung zu treten [21]. Ein Deepfakes nicht mehr funktioniert. Es adäquates Pendant hierzu, ohne die zeigt sich zugleich also auch, dass es noch genannten Sicherheitsbedenken, wäre die ein langer Weg ist, bis Videomaterialien App „Reface“ [22]. mit Full HD und Ultra HD per Deepfake Neben der Unterhaltung haben Deepfakes dargestellt werden können [25], [26]. in der Filmindustrie aber auch einen Ein weiteres Einsatzgebiet von Deepfakes anderen Nutzen: So kann die Montage ist außerdem die Unkenntlichmachung
von Menschen in Videos. Inzwischen gibt daraus die künstlichen Tulpen darzustellen es verschiedene Ansätze, die zeigen, dass [29]. das klassische Unkenntlich machen von Personen durch Verpixelung des Gesichts keine adäquate Lösung mehr ist, die Identität der Person zu wahren. In Abhängigkeit zum gewählten Verfahren kann so die Erfolgsquote bei bis zu 98% liegen, sodass eine künstliche Intelligenz das Originalbild nach einer Verpixelung wiedererkennen kann [27]. Aufgrund dessen gibt es noch eine andere Möglichkeit die Anonymität zu schützen. Die Schattenwand gilt als ein relativ sicheres Verfahren, kann aber keine Mimiken und Gestiken richtig darstellen, Abbildung 2: Bildinstallation Mosaic Virus [29] weswegen es aktuell nicht die beste Methode ist. Die HBO Serie „Welcome to Medizin: Project Revoice ist ein Beispiel Chechnya“ hat daher zum Schutz vor der für Deepfakes im Bereich der Medizin. Verfolgung von Mitgliedern der LBGT- Hierbei wird die Technologie verwendet, Gemeinde in Tschetschenien diese mittels um chronische Krankheiten, die den Deepfakes unkenntlich gemacht. Die Stimmenverlust zur Folge haben, eine Bilderbasis stammt hier von freiwilligen authentische Stimme zurückzugeben. Das Spenden der eigenen Gesichter, wodurch Projekt bietet verschiedene Arten, vor die Protagonisten nicht mehr dem Verlust der Stimme, das Netz zu identifizierbar, dennoch Emotionen und trainieren. So können beispielsweise Sätze Gefühle mittels „anderer“ Gesichter eingesprochen werden, um das neuronale darstellbar sind [28]. Netz zu trainieren. Im Fall von Pat Quinn, Kunst: In der Kunstszene können der Co-Founder der Ice Bucket Challenge, Deepfakes ebenfalls ihren Einsatzzweck war dies nicht mehr möglich. Die Ice finden. Die britische Künstlerin Anna Bucket Challenge war eine Spendenaktion, Ridler, welche ihre Kunst bereits im Haus mit dem Zweck, Gelder für ALS erkrankte der elektronischen Künste in Basel, aber zu sammeln und zugleich Aufmerksamkeit auch in London oder Linz ausstellt, nutzt für die nicht heilbare degenerative Deepfakes für ihre Arbeit. Die Ausstellung Erkrankung zu schaffen. Pat Quinn ist „Mosaic Virus“ ist eine Installation von ebenfalls an ALS erkrankt. In seinem Fall 2019, bei welcher drei Bildschirme war das Einsprechen der Trainingssätze für verschiedene durch Deepfake generierte Project Revoice zu spät. Da er aber in der Tulpen darstellen. Es soll ein Stillleben des Öffentlichkeit sehr präsent war und es 21. Jahrhunderts darstellen und zeigen, diverse Videoaufnahmen von ihm gab, dass Deepfakes auch in der Kunst ihren haben die Entwickler diese Aufnahmen Mehrwert liefert. Das Trainingsmaterial verwendet, um daraus via Deepfake seine, sammelte die Künstlerin in Amsterdam inzwischen verlorene Stimme, technisch während der Tulpensaison. Grundlage zu reproduzieren. Der Vorteil gegenüber hierfür waren 20 000 Ablichtungen von einem Sprachcomputer soll sein, dass das Tulpen, die von Hand klassifiziert wurden, Sprechen sich für den Erkrankten wieder um ein neuronales Netz zu trainieren und natürlicher anfühlt, da es die eigene Stimme ist, die künstlich über einen Lautsprecher ausgegeben wird [30].
Politik: Der Missbrauch von Deepfakes in in Malaysia verboten sind, gab es einen sozialen Medien ist relativ groß, weil sich öffentlichen Aufschrei. Dieser wurde Falschnachrichten dort schnell verbreiten. allerdings im Keim erstickt, da die Vor allem bei einem Medium, wie einem Regierung behauptet hat, dass es sich um Mobiltelefon, ist es relativ simpel den eine Videomanipulation handle, mit dem Zuschauer zu täuschen, ohne eine Ziel die Karriere des Ministers zu sonderlich hohe Qualität im Video sabotieren. Auch wenn unabhängige vorzuweisen. Dafür werden Informationen Wissenschaftler den Deepfake nicht in sozialen Medien zu schnell konsumiert nachweisen konnten und daher dazu und die Displays sind zu klein, um zum plädierten, dass das Video echt sei, konnte Beispiel Bildartefakte zu erkennen. Eine so ein öffentlicher Eklat vermieden Gefahr, die daraus hervorgeht, sind werden. Wieder stellt sich die Frage, ob Filterblasen. Sogenannte bislang belastbare Quellen, wie Audio- „Meinungsmache“ kann geschürt werden, und Videoaufnahmen weiterhin verlässlich indem Nutzer aktiv durch Deepfakes sind [32]. manipuliert werden. Allerdings sagen Identifikation: Auch zur Identifikation und Experten auch, dass auf der anderen Seite Fälschung von Persönlichkeiten können größere Gefahren, wie beispielsweise ein Deepfakes verwendet werden. Hieraus Krieg, nicht durch Deepfakes verursacht zeigt sich auch eine der größten Bedenken werden können. Grund zu der Annahme von Deepfakes von Seiten der ist, dass Geheimdienste bereits jetzt Bundesregierung [33]. Video-Ident- mithilfe von aufwändiger Verfahren sind inzwischen ein gängiges Hollywoodtechnik z.B. politische Hetze Mittel, um sich beispielsweise für ein schüren könnten, dies aber keinen Krieg neues Online-Konto zu authentifizieren. auslöst [19]. Dabei wird ein Videoanruf, in aller Regel Eine andere Gefahr, die von Deepfakes in mit einem Dienstleister der Bank, dem Kontext Politik ausgeht, ist der durchgeführt. Der Dienstleister prüft Zweifel, an bislang vertrauenswürdigen dann, ob das Gesicht mit dem Quellen, wie Audio- oder Personalausweis übereinstimmt, ob alle Videoaufnahmen. Nachdem eine alte Sicherheitsmerkmale auf dem Tonaufnahme von 2005 über Donald Personalausweis vorhanden sind und ob Trump, kurz vor den Wahlen, die Angaben, mit denen auf dem Ausweis, veröffentlicht wurde, in der er sich abfällig übereinstimmen. In Folge dessen können über Frauen äußert, hat sich Trump Deepfakes verwendet werden, um sich für öffentlich entschuldigt. Im Nachgang eine andere Person auszugeben. allerdings hat er gesagt, dass es sich um Beispielsweise könnte ein Angreifer den einen Deepfake handle und daher das Personalausweis einer anderen Person Thema für ihn erledigt sei. Ob es nun stehlen oder fälschen und daraufhin per tatsächlich ein Deepfake war oder nicht Video-Ident-Verfahren im Namen der bleibt ungeklärt [31]. Ein anderes Beispiel Person mit einem Deepfake exemplarisch hat sich im Juni 2019 in Malaysia ein Konto eröffnen. Da die zugetragen. Ein politischer Skandal wurde Videotelefonate in der Regel per ausgelöst, als ein Sextape veröffentlicht Handykamera durchgeführt werden, fällt wurde, welches den Wirtschaftsminister darüber hinaus auch nicht auf, ob die Armin Ali mit einem männlichen Qualität des Deepfakes nicht einwandfrei rivalisierenden Minister beim ist [33]. Ein weiteres Verfahren, um sich Geschlechtsakt zeigt. Da für eine andere Person auszugeben, ist das gleichgeschlechtliche sexuelle Handlungen Fälschen der Stimme einer Person, zum
Beispiel am Telefon. Dazu hat sich bereits ein Fall im Jahr 2019 ereignet. Cyber Kriminelle haben mithilfe eines Deepfakes den CEO eines Energieunternehmens aus Großbritannien getäuscht. Dieser glaubte mit dem Chef des deutschen Mutterkonzerns zu telefonieren, welcher ihn veranlasste eine Überweisung in Höhe von 220 000€ durchzuführen. Der falsche Chef ordnete an, dass an einen ungarischen Dienstleister der Betrag Abbildung 3: Portätfoto des Briten Oliver Taylor (links) überwiesen werden soll. Dabei hat er sowie einer Darstellung der Heatmap des Unternehmens Druck auf den Angestellten ausgeübt, dass Deepfake Detection Company Cyabra. Gefärbte Bereiche das Geld binnen einer Stunde überwiesen deuten hierbei auf eine Fälschung hin [35]. sein soll. Nach Angaben des Briten habe Allerdings gibt es auch positive sich die Stimme für ihn authentisch Einsatzzwecke im Bereich der Deepfakes angehört, was zeigt, wie weit die und Identitätsschutz: So kann Fälschung von Stimmen bereits geht und beispielsweise Filmmaterial, welches welche Gefahr beim Identitätsklau mit während einer Testfahrt für das autonome Deepfakes ausgehen kann [34]. Schließlich Fahren aufgenommen wurde mit können Deepfakes auch zur Tarnung und Deepfakes verbessert werden. Zum Schutz anonymen Handeln missbraucht werden. der Persönlichkeitsrechte kann die Technik So auch der Fall bei Oliver Taylor, ein Gesichter aufgenommener Personen freier Redakteur mit Schwerpunkt austauschen. Ein Trainingsnetz kann Antisemitismus, der für Zeitungen, wie die infolgedessen trotzdem mit echten Jerusalem Post und die Times of Israel menschlichen Gesichtern trainiert werden, arbeitet. Nachdem er einen Artikel trotzdem bleiben Passanten anonym für veröffentlicht hat, in dem der Akademiker die künstliche Intelligenz. Mazen Masri und seine Frau Ryvka Barnard, die sich für die Rechte von Schutzmaßnahmen Palästinensern einsetzt, als “bekannte Da es einige nützliche Einsatzzwecke von Sympathisanten des Terrorismus” Deepfakes gibt, jedoch auch manche bezeichnete, fing Reuters an nach dem Gefahren von ihnen ausgehen, soll im Autor zu recherchieren. Die Folgenden auf Schutzmaßnahmen Nachrichtenagentur fand heraus, dass eingegangen werden. Dabei kann die dieser Autor nicht existiert. Angaben der Gefahr, hervorgerufen durch Deepfakes, Universität, Telefonnummer und E-Mails auf drei Kernbereiche eingegrenzt waren nicht echt und auch sein Profilbild werden: Zum einen das Manipulieren von ließ auf einen Deepfake schließen. Da die Meinungen durch falsche Inhalte, was vor Zeitungen keine Kontrollmechanismen für allem für Social Media eine Gefahr Autoren haben, Artikel nur via E-Mail darstellt. Dazu verbunden der Bereich der angenommen wurden und Oliver keine Politik. Hierbei kann sowohl die Bezahlung forderte, war es für den Autor Manipulation aber auch die Sabotage möglich, eine falsche Identität ausschlaggebend sein. Letzter Kernbereich anzunehmen. Das Deepfake Porträtbild ist der Identitätsdiebstahl und die machte das Profil noch glaubwürdiger Fälschung einer Identität, da der Mensch [35]. bislang davon ausging, dass Quellen, wie
Audio- und Videoaufnahmen als belastbar dem Gesetz zum Verbot von Deepfakes in und verlässlich galten. Australien wurde im Oktober 2019 in Kalifornien für 60 Tage das Verbreiten von Ausgehend vom ersten Kernbereich der „materially deceptive audio or visual Gefahr hat Facebook zusammen mit media“ in Bezug auf die Kandidatur, kurz einigen Partnern, wie Microsoft oder vor der Wahl, verboten [33]. In Amazon die „Deepfake Detection Deutschland hingegen ist dieser Challenge“ kurz: DFDC ins Leben gerufen. Rechtsraum allerdings nicht so eindeutig Bei der Challenge haben 2114 Teilnehmer gesetzlich geregelt. insgesamt 35 000 KI-Modelle eingereicht. Ziel war Deepfakes von realen Videos zu Ein weiterer denkbarer Lösungsweg wäre unterscheiden, wobei die Modelle zuvor die verpflichtende Einbindung eines nicht mit dem Material trainiert wurden. digitalen Wasserzeichens, welches Es handelte sich folglich um Rückschlüsse über die Produktion des „ungesehenes“ Material, welches mehr als Videos und die Verbreitungswege, 100 000 Videos umfasste. Um die beispielsweise durch die Blockchain Erkennung noch schwieriger zu machen, Technologie, ermöglichen könnte [39]. enthielten die Videos darüber hinaus Elemente, die die Erkennungssysteme Im Bereich des Identitätsklaus gibt es verwirren sollten: Beispielsweise ein inzwischen auch Schutzmaßnahmen. Vor Makeup-Tutorial, bei der eine Person allem bei Audioaufnahmen gibt es geschminkt wird, Videos, welche durch verschiedene Verfahren, um Fälschungen Einfügen von Text und Formen über den durch Deepfakes von echten zu Gesichtern der Sprecher ablenken sollten, unterscheiden: So hat das Frauenhofer- das Ändern von Auflösung oder der Institut eine künstliche Intelligenz Ausrichtung sowie langsameres und entwickelt, welche es ermöglicht den schnelleres Abspielen eines Videos. Das Unterschied zwischen Textbausteinen und Modell erlangte hierbei eine Accuracy von gesprochener Stimme zu erkennen [40]. 65%. In Folge der Nominierung wurde Außerdem können Schwankungen in den gesagt, dass das beste Modell sehr gut, in Netzfrequenzen anhand von Anbetracht der schwierigen Bedingungen Audioaufnahmen identifiziert werden. Da agiert hat, jedoch das System trotzdem das Stromnetz nicht immer exakt 50 Hertz nicht gut genug sei, um auf den Social liefert, kann in den Audioaufnahmen das Media Plattformen dauerhaft zum Einsatz Aufzeichnungsdatum abgeglichen werden. zu kommen [36], [37]. Da diese Audiocharakteristiken über Jahre aufgezeichnet wurden, kann so die Während der US-Wahlen 2020 sollen Validitätsprüfung stattfinden [39]. Deepfakes von den Plattformen jedoch mithilfe dieser Techniken gesondert Erkennungssoftware und deren beobachtet und verbannt werden. Hierfür Manipulation haben Facebook, YouTube und Twitter Eine Erkennungssoftware, die im bereits Anfang des Jahres ihr Regelwerk Gegensatz zu den Modellen der DFDC mit für Anti-Deepfake-Paragraphen erweitert. bereits gesehenem Material trainiert Demnach sind satirische und parodistische wurde, nennt sich FaceForensics++ und Inhalte weiterhin erlaubt, manipulative wurde im Jahr 2019 vorgestellt. Als Inhalte jedoch verboten [38]. Datenbasis wurden hierbei YouTube Auch in der Politiksparte gibt es Videos verwendet, welche mit Schutzmaßnahmen. Neben beispielsweise verschiedenen Techniken, wie FaceSwap
oder Face2Face manipuliert und im Die Erfolgsrate unterscheidet sich Anschluss mit drei verschiedenen dahingehend, ob es sich um eine Videoqualitäten von der Software Whitebox-Attacke oder eine Blackbox- untersucht wurden. Eine dazu passende Attacke handelt und ob das Video vor der Nutzerstudie hat gezeigt, dass vor allem Erkennung komprimiert wird. Im Fall der mit sinkender Qualität die Erkennung Whitebox-Attacke ist die Erkennung meist durch das menschliche Auge deutlich am einfachsten, da die Architektur des schlechter wird. FaceForensics++ hingegen Detektors sowie die Arbeitsweise und kann hier noch deutlich bessere verwendete Parameter bekannt sind. In Ergebnisse erzielen. Dazu wurde ein diesem Fall liegt die Erkennung bei nahezu automatischer Classifier entwickelt, 100%. Bei einer Blackbox-Attacke sinkt welcher auf Grundlage von Artefakten in diese in Abhängigkeit zur gewählten den Bildern, neben dem gewählten Erkennung um 5 bzw. 15 Prozentpunkte. Manipulationsmodell (Face2Face, Wird allerdings das Video komprimiert, FaceSwap, usw.) auch klassifizieren liegt die Täuschungsrate in Abhängigkeit konnte, ob es sich um eine Fälschung zum Erkennungsmodell nur noch bei 58% handelt oder nicht. Darüber hinaus kann bzw. 92% [42]. das Modell auch feststellen, an welcher Stelle im Bild die Manipulation zum Es zeigt sich also, dass das Wechselspiel Einsatz kommt [41]. zwischen Erkennung und Täuschung mithilfe von KI im Bereich Deepfakes über Ein Jahr später folgte das Paper die Zeit immer weiter vorangetrieben „Adversarial Deepfakes“, welches sich zum wird. Ziel gesetzt hat, die Erkennung von z.B. FaceForensics++ wiederrum zu täuschen. Fazit Dazu wird als Grundlage eine Adversarial Festzuhalten ist, dass es nicht nur negative Attack verwendet, die auf einem Seiten von Deepfakes gibt, wie es häufig normalen Bild ein künstlich erzeugtes von den Medien dargestellt wird. Vor Rauschen hinzuaddiert. Für das allem die positiven Seiten von Deepfakes menschliche Auge sieht das Bild immer können einen Mehrwert für die noch gleich aus, jedoch extrahiert die verschiedensten Bereiche bringen. Dabei künstliche Intelligenz aufgrund des zeigt sich, dass mit fortschreitender Rauschens andere Kernmerkmale aus dem Technik die Entwicklung von Deepfakes Bild, was anschließend zu einer zunimmt. Der Aufwand wird immer Fehlinterpretation führt [42]. geringer Deepfakes zu erzeugen und zugleich wird die Technik immer leichter zugänglich für Privatpersonen. Außerdem ist auch ein Trend zu verzeichnen, dass die Qualität immer besser wird. Vor allem im Bereich der Filmbranche kann eine Abbildung 4: Beispiel einer Adversarial Attack - Links ein Verbesserung der Qualität auf Full HD Bild eines Schweins, welches nach dem Hinzufügen des bzw. Ultra HD einen großen Rauschens von der KI als "airliner" klassifiziert wird. Für Innovationsschritt bedeuten, da das menschliche Auge gibt es keinen Unterschied zu erkennen [43]. aufwändige Effekte deutlich schneller und kostensparender umgesetzt werden Durch diese Angriffsmethode können können. folglich automatische Erkennungen Trotzdem sollte man auch die Gefahren im getäuscht werden. Bereich der Social Media nicht außer Acht
lassen. Es ist wichtig, dass weiterhin an Juli 2017, doi: 10.1145/3072959.3073640. Erkennungsmechanismen geforscht wird, [6] J. Vincent, „New AI research makes um die Nutzer zu schützen. Darüber it easier to create fake footage of hinaus sollte auch die Gesetzeslage in someone speaking“, The Verge, Juli 12, Deutschland überarbeitet werden. Bislang 2017. fehlt es hier an einer einheitlichen https://www.theverge.com/2017/7/12/15 gesetzlichen Regelung, die eindeutig eine 957844/ai-fake-video-audio-speech- Grenze zwischen einer zulässigen obama (zugegriffen Sep. 22, 2020). Bearbeitung von Videos und deren [7] „Deepfakes“, IONOS Digitalguide. Verbreitung und unzulässigen https://www.ionos.de/digitalguide/online- Täuschungen ziehen kann. Dies liefert marketing/social-media/deepfakes/ zwar keinen vollumfänglichen Schutz vor (zugegriffen Sep. 22, 2020). Deepfakes und Fake News, kann aber eine [8] S. N. Germany Stuttgart, „Video- Absicherung sein. Schließlich sollte auch in Manipulation im Internet: Deepfakes – der Gesellschaft das Misstrauen Fake News auf dem nächsten Level?“, gegenüber Video- und Audiodateien stuttgarter-nachrichten.de. größer werden. Es muss eine Aufklärung https://www.stuttgarter- stattfinden, um zu zeigen, wie weit die nachrichten.de/inhalt.video-manipulation- Technik heutzutage ist, um bislang im-internet-deepfakes-fake-news-auf- verlässlichen Audio- und Videoquellen dem-naechsten-level.9a5c74bd-450a- mehr Skepsis entgegenzubringen. 40b8-8cc1-f9d47306132b.html (zugegriffen Sep. 22, 2020). Quellen [9] „Deepfakes FakeApp“. [1] „Infografik: Künstliche Intelligenz, https://www.heise.de/download/product/ Chance oder Riskio?“, Statista deepfakes-fakeapp (zugegriffen Sep. 22, Infografiken. 2020). https://de.statista.com/infografik/16394/ [10] iperov, einsatzgebiet-von-kuenstlicher-intelligenz/ „https://github.com/iperov/DeepFaceLab“ (zugegriffen Sep. 16, 2020). , Sep. 22, 2020. [2] „Was ist ein Deepfake?“ https://github.com/iperov/DeepFaceLab https://www.bigdata-insider.de/was-ist- (zugegriffen Sep. 22, 2020). ein-deepfake-a-915237/ (zugegriffen Sep. [11] E. Zakharov, A. Shysheya, E. 22, 2020). Burkov, und V. Lempitsky, „Few-Shot [3] C. Bregler, M. Covell, und M. Adversarial Learning of Realistic Neural Slaney, „Video Rewrite: driving visual Talking Head Models“, ArXiv190508233 speech with audio“, in Proceedings of the Cs, Mai 2019, Zugegriffen: Sep. 22, 2020. 24th annual conference on Computer [Online]. Verfügbar unter: graphics and interactive techniques - http://arxiv.org/abs/1905.08233. SIGGRAPH ’97, Not Known, 1997, S. 353– [12] A. Zucconi, „Understanding the 360, doi: 10.1145/258734.258880. Technology Behind DeepFakes“, Alan [4] J. Thies, M. Zollhöfer, M. Zucconi, März 14, 2018. Stamminger, C. Theobalt, und M. Nießner, https://www.alanzucconi.com/2018/03/1 „Face2Face: Real-time Face Capture and 4/understanding-the-technology-behind- Reenactment of RGB Videos“. deepfakes/ (zugegriffen Sep. 22, 2020). [5] S. Suwajanakorn, S. M. Seitz, und I. [13] „r/announcements - Update on Kemelmacher-Shlizerman, „Synthesizing site-wide rules regarding involuntary Obama: learning lip sync from audio“, pornography and the sexualization of ACM Trans. Graph., Bd. 36, Nr. 4, S. 1–13, minors“, reddit.
https://www.reddit.com/r/announcement Foto und Videos – Apps bei Google Play“. s/comments/7vxzrb/update_on_sitewide_ https://play.google.com/store/apps/detail rules_regarding_involuntary/ (zugegriffen s?id=video.reface.app&hl=de (zugegriffen Sep. 22, 2020). Sep. 22, 2020). [14] „Reddit bans ‘deepfakes’ AI porn [23] S. Zeitung, „‚Fast and Furious‘ Paul communities - The Verge“. Walkers Brüder bringen Film zu Ende“, https://www.theverge.com/2018/2/7/169 Süddeutsche.de. 82046/reddit-deepfakes-ai-celebrity-face- https://www.sueddeutsche.de/kultur/fast swap-porn-community-ban (zugegriffen -and-furious-7-brueder-springen-fuer- Sep. 22, 2020). paul-walker-ein-1.1938770 (zugegriffen [15] J. Roettgers und J. Roettgers, Sep. 22, 2020). „Naughty America Wants to Monetize [24] „Deepfakes: Sind manipulierte Deepfake Porn“, Variety, Aug. 20, 2018. Videos eine Gefahr?“, MAZ - Märkische https://variety.com/2018/digital/news/de Allgemeine. https://www.maz- epfake-porn-custom-clips-naughty- online.de/Nachrichten/Digital/Deepfakes- america-1202910584/ (zugegriffen Sep. Sind-manipulierte-Videos-eine-Gefahr 22, 2020). (zugegriffen Sep. 22, 2020). [16] „Creator of DeepNude, App That [25] „Deepfakes bei Disney und in Undresses Photos of Women, Takes It Dokus: Die Porno-Technologie ist in Offline“. Hollywood angekommen“, stern.de. https://www.vice.com/en_us/article/qv7a https://www.stern.de/digital/online/deep gw/deepnude-app-that-undresses-photos- fakes-bei-disney-und-in-dokus--die-porno- of-women-takes-it-offline (zugegriffen technologie-ist-in-hollywood- Sep. 22, 2020). angekommen-9320088.html (zugegriffen [17] „deepnudeapp (@deepnudeapp) / Sep. 22, 2020). Twitter“, Twitter. [26] M. Schreiner, „Disney entwickelt https://twitter.com/deepnudeapp Megapixel-Deepfakes fürs Kino“, MIXED | (zugegriffen Sep. 22, 2020). News zu VR, AR und KI, Juli 01, 2020. [18] „Mapping the Deepfake https://mixed.de/disney-entwickelt- Landscape“, Sensity, Okt. 07, 2019. megapixel-deepfakes-fuers-kino/ https://sensity.ai/mapping-the-deepfake- (zugegriffen Sep. 24, 2020). landscape/ (zugegriffen Sep. 22, 2020). [27] V. Tischbein, „Verpixelung macht [19] „Künstliche Intelligenz: Deepfakes unsichtbar - oder doch nicht?“, – darum sollten wir besorgt sein“. netzpolitik.org, Sep. 15, 2016. https://www.zdf.de/uri/d2399b9f-ba10- https://netzpolitik.org/2016/verpixelung- 480c-be90-7108e65d0db1 (zugegriffen macht-unsichtbar-oder-doch-nicht/ Sep. 22, 2020). (zugegriffen Sep. 22, 2020). [20] A. told to D. Scott, „Deepfake Porn [28] R. Heilweil, „How deepfakes could Nearly Ruined My Life“, ELLE, Feb. 06, actually do some good“, Vox, Juni 29, 2020. https://www.elle.com/uk/life-and- 2020. culture/a30748079/deepfake-porn/ https://www.vox.com/recode/2020/6/29/ (zugegriffen Sep. 22, 2020). 21303588/deepfakes-anonymous- [21] „Chinesische Deepfake-App sorgt artificial-intelligence-welcome-to- für Aufregung – die User-Videos sind chechnya (zugegriffen Sep. 22, 2020). krass!“, watson.ch. [29] „Mosaic Virus, 2019“, ANNA https://www.watson.ch/!549945806 RIDLER. http://annaridler.com/mosaic- (zugegriffen Sep. 22, 2020). virus (zugegriffen Sep. 22, 2020). [22] „REFACE: Gesichter austauschen in [30] „Home - Project Revoice“.
https://www.projectrevoice.org/ gegen-deepfakes.html (zugegriffen Sep. (zugegriffen Sep. 22, 2020). 24, 2020). [31] M. Haberman und J. Martin, [41] A. Rössler, D. Cozzolino, L. „Trump Once Said the ‘Access Hollywood’ Verdoliva, C. Riess, J. Thies, und M. Tape Was Real. Now He’s Not Sure.“, The Nießner, „FaceForensics++: Learning to New York Times, Nov. 28, 2017. Detect Manipulated Facial Images“, [32] N. Ker, „Is the political aide viral ArXiv190108971 Cs, Aug. 2019, sex video confession real or a Deepfake? | Zugegriffen: Sep. 24, 2020. [Online]. Malay Mail“. Verfügbar unter: https://www.malaymail.com/news/malay http://arxiv.org/abs/1901.08971. sia/2019/06/12/is-the-political-aide-viral- [42] P. Neekhara, S. Hussain, M. Jere, F. sex-video-confession-real-or-a- Koushanfar, und J. McAuley, „Adversarial deepfake/1761422 (zugegriffen Sep. 22, Deepfakes: Evaluating Vulnerability of 2020). Deepfake Detectors to Adversarial [33] „Antwort der Bundesregierung auf Examples“, ArXiv200212749 Cs, März die Kleine Anfrage der Abgeordneten 2020, Zugegriffen: Sep. 24, 2020. [Online]. Manuel Höferlin, Frank Sitta, Grigorios Verfügbar unter: Aggelidis, weiterer Abgeordneter und der http://arxiv.org/abs/2002.12749. Fraktion der FDP“, 19/15657, Dez. 2019. [43] K. S. Sivamani, „The unusual [34] C. Stupp, „Fraudsters Used AI to effectiveness of adversarial attacks“, Mimic CEO’s Voice in Unusual Cybercrime Medium, Juli 31, 2019. Case“, Wall Street Journal, Aug. 30, 2019. https://medium.com/@smkirthishankar/t [35] R. Satter, „Deepfake used to attack he-unusual-effectiveness-of-adversarial- activist couple shows new disinformation attacks-e1314d0fa4d3 (zugegriffen Sep. frontier“, Reuters, Juli 15, 2020. 24, 2020). [36] „Deepfake Detection Challenge Dataset“. https://ai.facebook.com/datasets/dfdc (zugegriffen Sep. 24, 2020). [37] B. Dolhansky u. a., „The DeepFake Detection Challenge Dataset“, ArXiv200607397 Cs, Juni 2020, Zugegriffen: Sep. 24, 2020. [Online]. Verfügbar unter: http://arxiv.org/abs/2006.07397. [38] M. Bastian, „TikTok: Deepfake- Bann zur US-Wahl 2020“, MIXED | News zu VR, AR und KI, Aug. 05, 2020. https://mixed.de/tiktok-deepfake-bann- zur-us-wahl-2020/ (zugegriffen Sep. 24, 2020). [39] N. Lossau, „Gefahren, Herausforderungen“, S. 9, 2020. [40] „Kampfansage an Deepfakes - Fraunhofer IDMT“, Fraunhofer-Institut für Digitale Medientechnologie IDMT. https://www.idmt.fraunhofer.de/de/Press _and_Media/press_releases/2019/kampf-
Sie können auch lesen