Deepfake

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Deepfakes (engl. Koffer- oder Portemanteau-Wort zusammengesetzt aus den Begriffen „Deep Learning“ und „Fake[1]) beschreiben realistisch wirkende Medieninhalte (Foto, Audio und Video), welche durch Techniken der künstlichen Intelligenz abgeändert und verfälscht worden sind. Obwohl Medienmanipulation kein neues Phänomen darstellt, nutzen Deepfakes Methoden des maschinellen Lernens, genauer künstliche neuronale Netzwerke, um Fälschungen weitgehend autonom zu erzeugen.

Entwicklung[Bearbeiten | Quelltext bearbeiten]

Der erste und derzeit häufigste Einsatz von Deepfakes findet im Bereich des „face swapping“ statt. Hierbei wird in visuellem Material (z. B. Videos oder Fotos) das Gesicht einer Person mit einem generierten Gesicht einer anderen Person getauscht um eine Zielperson in einem anderen Kontext darzustellen. Die so entstehenden Inhalte haben großes destruktives Potential,[2][3] wie zum Beispiel gefälschte pornografische Inhalte. Deepfakes gehen allerdings weit über die Anwendung des „face-swapping“ hinaus und beinhalten die Manipulation auditorischer Inhalte (z. B. „voice swapping“) und die als „body-puppetry“ bekannte Übertragung von Körperbewegungen auf andere Personen in Videomaterial.[2]

Obwohl Deepfakes ein relativ neuartiges Phänomen sind (erste Nutzung des Begriffs 2017), haben sie eine breite Debatte um ihre Nutzung und Gefahren für Politik, Wirtschaft und Gesellschaft entfacht. Auf Seiten der Politik sowie auf Seiten der Industrie gibt es Bestrebungen, die Identifizierung von Deepfakes zu erleichtern, ihre Nutzung einzuschränken und ihre unerlaubte Erstellung unter Strafe zu stellen.[4][5]

Anwendung[Bearbeiten | Quelltext bearbeiten]

Kunst[Bearbeiten | Quelltext bearbeiten]

In der Kunst werden Deepfakes als Mittel der Zuspitzung verwendet, etwa um sich über popkulturelle Dinge lustig zu machen. Der Künstler Joseph Ayerle nutzte Deepfake für den Kurzfilm Un’emozione per sempre 2.0, um eine Zeitreise der Protagonistin Ornella Muti aus dem Jahr 1978 in das Jahr 2018 zu inszenieren[6]. Im April 2018 veröffentlichte der US-amerikanische Kabarettist Jordan Peele gemeinsam mit BuzzFeed ein Deepfake-Video, in dem er Barack Obama vor den Gefahren manipulierter Videos warnen lässt.[7] In diesem Video bezeichnet der „synthetische“ Ex-Präsident unter anderem seinen Nachfolger Donald Trump als „kompletten Volltrottel“.[8] Ein YouTuber, der unter dem Namen Speaking of AI auftritt, ließ wiederum den als Kylo Ren aus Star Wars bekannten Schauspieler das Intro zur Original-TV-Serie Star Trek sprechen.[9]

Im Juni 2019 wurde das Programm DeepNude für Windows und Linux veröffentlicht, welches neuronale Netzwerke benutzt, damit Kleider von Bildern von Frauen entfernt werden können. Dabei gab es eine kostenlose und eine kostenpflichtige Version für 50 USD.[10][11] Jedoch wurde die Software kurz danach von den Erstellern wieder entfernt und die Käufer erhielten eine Rückerstattung.[12]

Politik[Bearbeiten | Quelltext bearbeiten]

Das MIT Center for Advanced Virtuality produzierte ein komplexes Deepfake bei dem die Technologie sowohl zum Einsatz kam, um Gesicht als auch Stimme des ehemaligen US-Präsidenten Richard Nixon zu duplizieren. Die Macher ließen Nixon dadurch eine Rede über den Tod der Apollo-11-Astronauten vorlesen[13]. Diese war einst geschrieben aber aufgrund der erfolgreichen Mondlandung nie öffentlich gehalten worden.

Deepfakes werden genutzt, um Politiker auf Videoportalen oder Imageboards falsch darzustellen. So wurde zum Beispiel das Gesicht des argentinischen Präsidenten Mauricio Macri durch das von Adolf Hitler oder das von Angela Merkel durch das von Donald Trump ersetzt.[14][15]

Datenschutz[Bearbeiten | Quelltext bearbeiten]

Seit 2018 wird universitär und industriell daran geforscht generierte Gesichter zum Schutz der Identität einzusetzen.[16][17] Nach der natürlichen Entfremdung des Gesichtes können im öffentlichen Bereich aufgenommene Daten für Analysezwecke oder für maschinelles Lernen wie Originaldaten verwendet werden, jedoch unter größerem Schutz der Privatsphäre und Ausschlusses biometrischer Erkennungen.[18][19] Einsatzorte sind beispielsweise für die Entwicklung autonomer Fahrzeuge oder für Smart City Kameras.[20][21] Künstliche Gesichter oder andere synthetische Merkmale, stellen damit eine alternative Anonymisierungsform gegenüber dem Blurring von personenbezogen Daten dar.

Forschung[Bearbeiten | Quelltext bearbeiten]

In Informatik, Mathematik und Kunst sind Algorithmen für maschinelles Lernen, die sich mit der Generierung von solchen Mediendateien beschäftigen, ein Forschungs- und Entwicklungsgebiet.

Deepfakes sorgten für ein großes mediales und gesellschaftliches Echo. Mehrere Journalisten führen daher Selbstversuche durch, um zu untersuchen, wie einfach oder schwierig Deepfakes zu erstellen sind[22] und wie sie die Glaubwürdigkeit von Videobildern beeinflussen könnten.[23]

Pornographie[Bearbeiten | Quelltext bearbeiten]

Im Herbst 2017 stellte ein anonymer Reddit-Nutzer unter dem Pseudonym „Deepfakes“ mehrere Pornovideos ins Internet. So waren die Wonder-Woman-Darstellerin Gal Gadot beim Sex mit ihrem Stiefbruder und andere Schauspielerinnen wie Emma Watson, Katy Perry, Taylor Swift oder Scarlett Johansson zu sehen. Diese Szenen waren nicht echt, sondern unter Verwendung künstlicher Intelligenz erstellt worden und rasch entlarvt. Als Trainingsdaten für sein Neuronales Netz hatte der Reddit-Nutzer Szenen aus Sexfilmen und Spielfilmen mit der Schauspielerin verwendet. Nach einem Bericht im Dezember 2017 im Magazin Vice wurde das Thema von weiteren Medien aufgenommen.[1][24] In den folgenden Wochen überarbeiteten und verbesserten andere Reddit-Nutzer der Entwickler-Community das Vorgehen des Erstentwicklers, womit es zunehmend schwieriger wurde, gefälschte von echten Inhalten zu unterscheiden. Auf dem dazu auf Reddit gegründeten Subreddit „Deepfakes“ wurden bis zu dessen Sperrung am 7. Februar 2018 von mehr als 50.000 Nutzern Deepfake-Videos ausgetauscht. Ein Racheporno kann durch den Einsatz von Deepfakes entstehen.[14][24][25][26][27] Auch die Pornoseite Pornhub gab an, Deepfake-Pornos zukünftig zu sperren.[28]

Software[Bearbeiten | Quelltext bearbeiten]

DeepFaceLab[Bearbeiten | Quelltext bearbeiten]

Die Open-Source-Software DeepFaceLab ist das meist verwendete Programm zur Erstellung von Deepfakes. Laut der Website Github werden mehr als 95 % aller Deepfakes mit DeepFaceLab erstellt.[29] Es werden verschiedene Tools zur Verfügung gestellt, welche dem Nutzer die effiziente Erstellung eines Deepfakes ermöglichen. Dabei gibt es für verschiedene Hardware optimierte Versionen von DeepFaceLab, wobei die für Nvidia-Grafikkarten am effizientesten ist. Ein Tool ermöglicht es, aus Videodateien mittels künstlicher Intelligenz Gesichter zu extrahieren und wichtige Punkte wie Augen, Nase und Mund zu bestimmen. Dadurch kann danach ein Deepfake erstellt werden, indem die Bilder der Ziel- und Quellpersonen in einzelne Teile zerlegt werden. Das künstliche neuronale Netz probiert dann, das Bild wieder zusammenzubauen. Dieses Ergebnis wird mit dem Ursprungsbild verglichen und die Gewichtungen der Verbindungen des künstlichen neuronalen Netzes werden daraufhin modifiziert. Eine ausführliche Anleitung zur Verwendung dieser Software ist frei erhältlich.[30]

Probleme[Bearbeiten | Quelltext bearbeiten]

Betrug[Bearbeiten | Quelltext bearbeiten]

Deepfakes von Stimmen können Betrügern kriminelle Handlungen ermöglichen, wenn sie Opfern gegenüber durch eine künstlich imitierte Stimme die Identität einer Vertrauens- oder anweisungsberechtigten Person erwecken und das Opfer Handlungen zum Vorteil des Betrügers vornehmen lassen.[31] 2019 wurde ein CEO eines Unternehmens aus dem Vereinigten Königreich durch einen Telefonanruf dazu gebracht, 220.000 Euro auf ein ungarisches Bankkonto zu überweisen, wobei die Täter durch ein Deepfake die Stimme eines Vorgesetzten des Opfers imitierten.[32]

Kreditwürdigkeit und Authentizität[Bearbeiten | Quelltext bearbeiten]

Zwar ist das Verfälschen von Bildern schon lange einfach, jedoch das von Videos viel schwieriger, weswegen einige Unternehmen zur Verifikation von ihren Kunden Videos von ihnen verlangen.[33] Mittels Deepfakes konnten Hacker schon diese Verifikation dadurch bestehen.

Der Professor Hao Li von der Universität von Southern California warnte, dass, wenn die Technologie von Deepfakes nicht der breiten Masse aufgezeigt werde, die missbräuchliche Anwendung von Deepfakes für Fake News oder Ähnliches eine ernste Gefahr darstellen könne.[34]

Sonstiges[Bearbeiten | Quelltext bearbeiten]

  • Ende Januar 2018 startete eine App namens FakeApp, mit der Nutzer leicht in Videos Gesichter austauschen können, als sei damit eine andere Person im Video zu sehen (Face Swap). Ein Algorithmus berechnet mithilfe eines künstlichen neuronalen Netzes und der Leistung des Grafikprozessors sowie mit drei bis vier Gigabyte Festplattenspeicher das zu erzeugende Fake-Video. Für genaue Angaben braucht das Programm viel Bildmaterial von der einzufügenden Person, um mithilfe des erwähnten Deep-Learning-Algorithmus auf Basis der Videosequenzen und Bilder zu lernen, welche Bildaspekte ausgetauscht werden müssen. Die Software nutzt dabei das KI-Framework TensorFlow von Google, welches unter anderem bereits für das Programm DeepDream verwendet wurde. Vorwiegend sind Prominente von derart gefälschten Sexvideos betroffen, obwohl Privatpersonen Ziel sein können.[35][36][37]
  • Zivil- oder strafrechtliches Vorgehen ist möglich, obwohl die Inhalte nicht echt sind (wie wegen Verletzung von Persönlichkeitsrechten und Sexualbeleidigung).[38] Voraussetzung hierfür ist aber, dass sich der Täter identifizieren lässt. Dies ist im Internet aufgrund von Anonymität und Pseudonymität sowie gegenseitigem Hin- und Herreichen nicht immer möglich.[39]
  • Der KI-Forscher Alex Champandard hält ein tradiertes hohes Vertrauen in den Journalismus und Medien für einen Grund für den Erfolg von Deepfakes. Der Google-Ingenieur Ian Goodfellow bezeichnet es als einen historischen Glücksfall, dass wir uns „bisher auf Videos als Beweis für Tatsachen verlassen konnten“.[14][35]
  • Im Mai 2019 ist es Forschern des Samsung-Laboratoriums in Moskau gelungen, ein KI-System zu entwickeln, das in der Lage ist, aus einem einzigen Bild ein Fake-Video zu erstellen. Sie schufen aus dem Porträt der Mona Lisa drei verschiedene Videos einer sprechenden und sich bewegenden Frau.[40]
  • Die Webseite notjordanpeterson.com nutzte die Technologie der "Deepfakes", um den kanadischen Psychologen Jordan Peterson, welcher im Internet durch kontroverse Aussagen und Interviews einige Berühmtheit erlangte, per Textfeld eingegebene, beliebige Sätze scheinbar sagen zu lassen, wobei der verwendete Algorithmus relativ realistisch klingende Resultate lieferte.[41] Die Funktionalität der Webseite wurde nach Androhung von rechtlichen Schritten von Seiten des Psychologen vorerst deaktiviert.[42]
  • Die Website thispersondoesnotexist.com generiert Gesichter, welche es gar nicht gibt. Diese Gesichter wurden vollständig durch Software generiert.

Weblinks[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. a b AI-Assisted Fake Porn Is Here and We’re All Fucked. In: Motherboard. 11. Dezember 2017 (motherboard.vice.com [abgerufen am 8. Februar 2018]).
  2. a b Jan Kietzmann, Linda W. Lee, Ian P. McCarthy, Tim C. Kietzmann: Deepfakes: Trick or treat? In: Business Horizons. Band 63, Nr. 2, 2020, ISSN 0007-6813, S. 135–146, doi:10.1016/j.bushor.2019.11.006 (sciencedirect.com).
  3. Prepare, Don't Panic: Synthetic Media and Deepfakes. In: WITNESS Media Lab. Abgerufen am 4. Februar 2020 (amerikanisches Englisch).
  4. Abhimanyu Ghoshal: Twitter, Pornhub and other platforms ban AI-generated celebrity porn. 7. Februar 2018, abgerufen am 4. Februar 2020 (amerikanisches Englisch).
  5. Yvette D. Clarke: H.R.3230 – 116th Congress (2019-2020): Defending Each and Every Person from False Appearances by Keeping Exploitation Subject to Accountability Act of 2019. 28. Juni 2019, abgerufen am 4. Februar 2020.
  6. Co-Creation Studio at MIT Open Documentary Lab: Can Humans Co-Create with Algorithms? 11. Juni 2019, abgerufen am 29. Januar 2020 (englisch).
  7. Frankfurter Rundschau: Barack Obama: Fake-Obama beschimpft Donald Trump. Abgerufen am 23. April 2018 (deutsch).
  8. Dreht Obama durch? Dieses Video zeigt eine der grössten Gefahren für Demokratien. In: bz Basellandschaftliche Zeitung. (basellandschaftlichezeitung.ch [abgerufen am 30. April 2018]).
  9. Speaking of AI: Kylo Ren AI Voice in Star Trek. Abgerufen am 18. Juni 2020.
  10. Samantha Cole: This Horrifying App Undresses a Photo of Any Woman With a Single Click. In: Vice. 26. Juni 2019, abgerufen am 17. Mai 2020 (englisch).
  11. Joseph Cox: GitHub Removed Open Source Versions of DeepNude. In: Vice. 9. Juli 2019, abgerufen am 17. Mai 2020 (englisch).
  12. deepnudeapp: pic.twitter.com/8uJKBQTZ0o. In: @deepnudeapp. 27. Juni 2019, abgerufen am 17. Mai 2020.
  13. Deepfake Art Project Reimagines Nixon’s Speech Had Apollo 11 Gone Horribly Wrong. Abgerufen am 6. März 2020 (amerikanisches Englisch).
  14. a b c Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos. In: az Aargauer Zeitung. 3. Februar 2018 (aargauerzeitung.ch [abgerufen am 8. Februar 2018]).
  15. Patrick Gensing, tagesschau.de: Deepfakes: Auf dem Weg in eine alternative Realität? Abgerufen am 27. Februar 2018 (deutsch).
  16. Xiuye Gu, Weixin Luo, Michael S. Ryoo, Yong Jae Lee: Password-conditioned Anonymization and Deanonymization with Face Identity Transformers. In: Computer Science. 29. November 2019, arxiv:1911.11759.
  17. Oran Gafni, Lior Wolf, Yaniv Taigman: Live Face De-Identification in Video. In: Computer Science. 19. November 2019, arxiv:1911.08348.
  18. 5 Areas Where AI Will Turbocharge Privacy Readiness. Abgerufen am 17. Juni 2020 (englisch).
  19. D-ID, the Israeli company that digitally de-identifies faces in videos and still images, raises $13.5 million. In: TechCrunch. Abgerufen am 17. Juni 2020 (amerikanisches Englisch).
  20. Pilotprojekt in Stuttgart: Mit Kameras gegen Corona: Deutsche Bahn will Passagierströme bewusster lenken. Abgerufen am 17. Juni 2020.
  21. K. Hayduk: [Drug therapy of hypertension]. In: Zeitschrift Fur Allgemeinmedizin. Band 51, Nr. 33, 30. November 1975, ISSN 0300-8673, S. 1536–1542, PMID 1909.
  22. Wie ich in nur zwei Wochen gelernt habe, eigene Deepfakes zu produzieren. 26. Januar 2020, abgerufen am 6. März 2020.
  23. Deepfakes: Kann man seinen Augen noch trauen? 3. Dezember 2019, abgerufen am 6. März 2020.
  24. a b Markus Böhm: "Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor. In: Spiegel Online. 7. Februar 2018 (spiegel.de [abgerufen am 8. Februar 2018]).
  25. barbara.wimmer: Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos. (futurezone.at [abgerufen am 8. Februar 2018]).
  26. heise online: Deepfakes: Auch Reddit verbannt Fake-Porn. Abgerufen am 8. Februar 2018.
  27. Reddit verbannt Deepfake-Pornos. Abgerufen am 8. Februar 2018.
  28. Samantha Cole: Pornhub Is Banning AI-Generated Fake Porn Videos, Says They're Nonconsensual. In: Vice. 6. Februar 2018, abgerufen am 20. Mai 2020 (englisch).
  29. iperov: iperov/DeepFaceLab. 22. Mai 2020, abgerufen am 22. Mai 2020.
  30. iperov: iperov/DeepFaceLab. 17. Mai 2020, abgerufen am 17. Mai 2020.
  31. Nick Statt: Thieves are now using AI deepfakes to trick companies into sending them money. 5. September 2019, abgerufen am 17. Mai 2020 (englisch).
  32. Jesse Damiani: A Voice Deepfake Was Used To Scam A CEO Out Of $243,000. Abgerufen am 17. Mai 2020 (englisch).
  33. Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos. Abgerufen am 17. Mai 2020 (Schweizer Hochdeutsch).
  34. Perfect Deepfake Tech Could Arrive Sooner Than Expected. Abgerufen am 17. Mai 2020 (englisch).
  35. a b Britta Bauchmüller: „Fake-App“: Mit diesem Programm kann jeder im Porno landen – ob er will oder nicht! In: Berliner-Kurier.de. (berliner-kurier.de [abgerufen am 8. Februar 2018]).
  36. Eike Kühl: Künstliche Intelligenz: Auf Fake News folgt Fake Porn. In: Die Zeit. 26. Januar 2018, ISSN 0044-2070 (zeit.de [abgerufen am 8. Februar 2018]).
  37. heise online: Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien. Abgerufen am 8. Februar 2018 (deutsch).
  38. Künstliche Intelligenz: Selfies sind eine gute Quelle. In: Die Zeit. 26. Januar 2018, ISSN 0044-2070 (zeit.de [abgerufen am 8. Februar 2018]).
  39. Gefälschte Rachepornos: Deepfakes werden ein richtiges Problem. Abgerufen am 8. Februar 2018 (österreichisches Deutsch).
  40. Samsung deepfake AI could fabricate a video of you from a single profile pic cnet.com, 24. Mai 2019, abgerufen am 31. Mai 2019.
  41. Mix: This AI lets you generate eerily realistic Jordan Peterson sound bites. 16. August 2019, abgerufen am 29. August 2019 (amerikanisches Englisch).
  42. Jordan Peterson deepfake voice simulator taken offline after Peterson suggests legal action. In: Reclaim The Net. 22. August 2019, abgerufen am 29. August 2019 (amerikanisches Englisch).