Deepfake

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Deepfakes (engl. Koffer- oder Portemanteau-Wort zusammengesetzt aus den Begriffen „Deep Learning“ und „Fake[1]) beschreiben realistisch wirkende Medieninhalte (Foto, Audio und Video), welche durch Techniken der künstlichen Intelligenz abgeändert und verfälscht worden sind. Obwohl Medienmanipulation kein neues Phänomen darstellt, nutzen Deepfakes Methoden des maschinellen Lernens, genauer künstliche neuronale Netzwerke, um Fälschungen weitgehend autonom zu erzeugen.

Entwicklung[Bearbeiten | Quelltext bearbeiten]

Der erste und derzeit häufigste Einsatz von Deepfakes findet im Bereich des „face swapping“ statt. Hierbei wird in visuellem Material (z. B. Videos oder Fotos) das Gesicht einer Person mit einem generierten Gesicht einer anderen Person getauscht, um eine Zielperson in einem anderen Kontext darzustellen. Die so entstehenden Inhalte haben großes destruktives Potential,[2][3] wie zum Beispiel gefälschte pornografische Inhalte. Deepfakes gehen allerdings weit über die Anwendung des „face-swapping“ hinaus und beinhalten die Manipulation auditorischer Inhalte (z. B. „voice swapping“) und die als „body-puppetry“ bekannte Übertragung von Körperbewegungen auf andere Personen in Videomaterial.[2]

Obwohl Deepfakes ein relativ neuartiges Phänomen sind (erste Nutzung des Begriffs 2017), haben sie eine breite Debatte um ihre Nutzung und Gefahren für Politik, Wirtschaft und Gesellschaft entfacht. Auf Seiten der Politik sowie auf Seiten der Industrie gibt es Bestrebungen, die Identifizierung von Deepfakes zu erleichtern, ihre Nutzung einzuschränken und ihre unerlaubte Erstellung unter Strafe zu stellen.[4][5]

Anwendung[Bearbeiten | Quelltext bearbeiten]

Im Juni 2019 wurde das Programm DeepNude für Windows und Linux veröffentlicht, welches neuronale Netzwerke benutzt, damit Kleider von Bildern von Frauen entfernt werden können. Dabei gab es eine kostenlose und eine kostenpflichtige Version für 50 USD.[6][7] Jedoch wurde die Software kurz danach von den Erstellern wieder entfernt und die Käufer erhielten eine Rückerstattung.[8]

Politik[Bearbeiten | Quelltext bearbeiten]

Das MIT Center for Advanced Virtuality produzierte ein komplexes Deepfake, bei dem die Technologie sowohl zum Einsatz kam, um Gesicht als auch Stimme des ehemaligen US-Präsidenten Richard Nixon zu duplizieren. Die Macher ließen Nixon dadurch eine Rede über den Tod der Apollo-11-Astronauten vorlesen[9]. Diese war einst geschrieben, aber aufgrund der erfolgreichen Mondlandung nie öffentlich gehalten worden.

Deepfakes werden genutzt, um Politiker auf Videoportalen oder Imageboards falsch darzustellen. So wurde zum Beispiel das Gesicht des argentinischen Präsidenten Mauricio Macri durch das von Adolf Hitler oder das von Angela Merkel durch das von Donald Trump ersetzt.[10][11]

Kunst[Bearbeiten | Quelltext bearbeiten]

Mit Hilfe von KI erschaffene Cyber-Schauspielerin Ornella Muti in Joseph Ayerle's Videokunstwerk "Un'emozione per sempre 2.0" (2018)

In der Kunst werden Deepfakes als Mittel der Zuspitzung verwendet, etwa um sich über popkulturelle Dinge lustig zu machen. Der Künstler Joseph Ayerle nutzte Deepfake für den Kurzfilm Un’emozione per sempre 2.0, um eine Zeitreise der Protagonistin Ornella Muti aus dem Jahr 1978 in das Jahr 2018 zu inszenieren[12]. Dabei wurde der Charakter der Ornella Muti des Jahres 2018 durch eine KI errechnet, die aus den Gesichtsdaten der jungen Ornella Muti und Filmszenen des Modells Kendall Jenner neue Szenen errechnete, die die wirkliche Ornella Muti nie gespielt hat.[13] Im April 2018 veröffentlichte der US-amerikanische Kabarettist Jordan Peele gemeinsam mit BuzzFeed ein Deepfake-Video, in dem er Barack Obama vor den Gefahren manipulierter Videos warnen lässt.[14] In diesem Video bezeichnet der „synthetische“ Ex-Präsident unter anderem seinen Nachfolger Donald Trump als „kompletten Volltrottel“.[15] Ein YouTuber, der unter dem Namen Speaking of AI auftritt, ließ wiederum den als Kylo Ren aus Star Wars bekannten Schauspieler das Intro zur Original-TV-Serie Star Trek sprechen.[16]

Datenschutz[Bearbeiten | Quelltext bearbeiten]

Seit 2018 wird universitär und industriell daran geforscht generierte Gesichter zum Schutz der Identität einzusetzen.[17][18] Nach der natürlichen Entfremdung des Gesichtes können im öffentlichen Bereich aufgenommene Daten für Analysezwecke oder für maschinelles Lernen wie Originaldaten verwendet werden, jedoch unter größerem Schutz der Privatsphäre und Ausschlusses biometrischer Erkennungen.[19][20] Einsatzorte sind beispielsweise für die Entwicklung autonomer Fahrzeuge oder für Smart City Kameras.[21][22] Künstliche Gesichter oder andere synthetische Merkmale, stellen damit eine alternative Anonymisierungsform gegenüber dem Blurring von personenbezogen Daten dar.

Forschung[Bearbeiten | Quelltext bearbeiten]

In Informatik, Mathematik und Kunst sind Algorithmen für maschinelles Lernen, die sich mit der Generierung von solchen Mediendateien beschäftigen, ein Forschungs- und Entwicklungsgebiet.

Deepfakes sorgten für ein großes mediales und gesellschaftliches Echo. Mehrere Journalisten führen daher Selbstversuche durch, um zu untersuchen, wie einfach oder schwierig Deepfakes zu erstellen sind[23] und wie sie die Glaubwürdigkeit von Videobildern beeinflussen könnten.[24]

Pornographie[Bearbeiten | Quelltext bearbeiten]

Im Herbst 2017 stellte ein anonymer Reddit-Nutzer unter dem Pseudonym „Deepfakes“ mehrere Pornovideos ins Internet. So waren die Wonder-Woman-Darstellerin Gal Gadot beim Sex mit ihrem Stiefbruder und andere Schauspielerinnen wie Emma Watson, Katy Perry, Taylor Swift oder Scarlett Johansson zu sehen. Diese Szenen waren nicht echt, sondern unter Verwendung künstlicher Intelligenz erstellt worden und rasch entlarvt. Als Trainingsdaten für sein Neuronales Netz hatte der Reddit-Nutzer Szenen aus Sexfilmen und Spielfilmen mit der Schauspielerin verwendet. Nach einem Bericht im Dezember 2017 im Magazin Vice wurde das Thema von weiteren Medien aufgenommen.[1][25] In den folgenden Wochen überarbeiteten und verbesserten andere Reddit-Nutzer der Entwickler-Community das Vorgehen des Erstentwicklers, womit es zunehmend schwieriger wurde, gefälschte von echten Inhalten zu unterscheiden. Auf dem dazu auf Reddit gegründeten Subreddit „Deepfakes“ wurden bis zu dessen Sperrung am 7. Februar 2018 von mehr als 50.000 Nutzern Deepfake-Videos ausgetauscht. Ein Racheporno kann durch den Einsatz von Deepfakes entstehen.[10][25][26][27][28] Auch die Pornoseite Pornhub gab an, Deepfake-Pornos zukünftig zu sperren.[29]

Software[Bearbeiten | Quelltext bearbeiten]

Mit der Open-Source-Software DeepFaceLab können Gesichter von Personen ausgetauscht werden.[30]

Probleme[Bearbeiten | Quelltext bearbeiten]

Betrug[Bearbeiten | Quelltext bearbeiten]

Deepfakes von Stimmen können Betrügern kriminelle Handlungen ermöglichen, wenn sie Opfern gegenüber durch eine künstlich imitierte Stimme die Identität einer Vertrauens- oder anweisungsberechtigten Person erwecken und das Opfer Handlungen zum Vorteil des Betrügers vornehmen lassen.[31] 2019 wurde ein CEO eines Unternehmens aus dem Vereinigten Königreich durch einen Telefonanruf dazu gebracht, 220.000 Euro auf ein ungarisches Bankkonto zu überweisen, wobei die Täter durch ein Deepfake die Stimme eines Vorgesetzten des Opfers imitierten.[32]

Kreditwürdigkeit und Authentizität[Bearbeiten | Quelltext bearbeiten]

Zwar ist das Verfälschen von Bildern schon lange einfach, jedoch das von Videos viel schwieriger, weswegen einige Unternehmen zur Verifikation von ihren Kunden Videos von ihnen verlangen.[33] Mittels Deepfakes konnten Hacker schon diese Verifikation dadurch bestehen.

Der Professor Hao Li von der Universität von Southern California warnte, dass, wenn die Technologie von Deepfakes nicht der breiten Masse aufgezeigt werde, die missbräuchliche Anwendung von Deepfakes für Fake News oder Ähnliches eine ernste Gefahr darstellen könne.[34]

In der zweiten Jahreshälfte des Jahres 2020 veröffentliche Microsoft die Information, dass die Firma an einer Software arbeite, die Deepfake-Manipulationen erkennen soll.[35]

Sonstiges[Bearbeiten | Quelltext bearbeiten]

  • Ende Januar 2018 startete eine App namens FakeApp, mit der Nutzer leicht in Videos Gesichter austauschen können, als sei damit eine andere Person im Video zu sehen (Face Swap). Ein Algorithmus berechnet mithilfe eines künstlichen neuronalen Netzes und der Leistung des Grafikprozessors sowie mit drei bis vier Gigabyte Festplattenspeicher das zu erzeugende Fake-Video. Für genaue Angaben braucht das Programm viel Bildmaterial von der einzufügenden Person, um mithilfe des erwähnten Deep-Learning-Algorithmus auf Basis der Videosequenzen und Bilder zu lernen, welche Bildaspekte ausgetauscht werden müssen. Die Software nutzt dabei das KI-Framework TensorFlow von Google, welches unter anderem bereits für das Programm DeepDream verwendet wurde. Vorwiegend sind Prominente von derart gefälschten Sexvideos betroffen, obwohl Privatpersonen Ziel sein können.[36][37][38]
  • Zivil- oder strafrechtliches Vorgehen ist möglich, obwohl die Inhalte nicht echt sind (wie wegen Verletzung von Persönlichkeitsrechten und Sexualbeleidigung).[39] Voraussetzung hierfür ist aber, dass sich der Täter identifizieren lässt. Dies ist im Internet aufgrund von Anonymität und Pseudonymität sowie gegenseitigem Hin- und Herreichen nicht immer möglich.[40]
  • Der KI-Forscher Alex Champandard hält ein tradiertes hohes Vertrauen in den Journalismus und Medien für einen Grund für den Erfolg von Deepfakes. Der Google-Ingenieur Ian Goodfellow bezeichnet es als einen historischen Glücksfall, dass wir uns „bisher auf Videos als Beweis für Tatsachen verlassen konnten“.[10][36]
  • Im Mai 2019 ist es Forschern des Samsung-Laboratoriums in Moskau gelungen, ein KI-System zu entwickeln, das in der Lage ist, aus einem einzigen Bild ein Fake-Video zu erstellen. Sie schufen aus dem Porträt der Mona Lisa drei verschiedene Videos einer sprechenden und sich bewegenden Frau.[41]
  • Die Webseite notjordanpeterson.com nutzte die Technologie der "Deepfakes", um den kanadischen Psychologen Jordan Peterson, welcher im Internet durch kontroverse Aussagen und Interviews einige Berühmtheit erlangte, per Textfeld eingegebene, beliebige Sätze scheinbar sagen zu lassen, wobei der verwendete Algorithmus relativ realistisch klingende Resultate lieferte.[42] Die Funktionalität der Webseite wurde nach Androhung von rechtlichen Schritten von Seiten des Psychologen vorerst deaktiviert.[43]

Literatur[Bearbeiten | Quelltext bearbeiten]

  • Mika Westerlund: The Emergence of Deepfake Technology: A Review. In: Technology Innovation Management Review. Band 9, Nr. 11, 2019, ISSN 1927-0321 (timreview.ca [abgerufen am 17. Juli 2021]).

Weblinks[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. a b AI-Assisted Fake Porn Is Here and We’re All Fucked. In: Motherboard. 11. Dezember 2017 (motherboard.vice.com [abgerufen am 8. Februar 2018]).
  2. a b Jan Kietzmann, Linda W. Lee, Ian P. McCarthy, Tim C. Kietzmann: Deepfakes: Trick or treat? In: Business Horizons. Band 63, Nr. 2, 2020, ISSN 0007-6813, S. 135–146, doi:10.1016/j.bushor.2019.11.006 (sciencedirect.com).
  3. Prepare, Don't Panic: Synthetic Media and Deepfakes. In: WITNESS Media Lab. Abgerufen am 4. Februar 2020 (amerikanisches Englisch).
  4. Abhimanyu Ghoshal: Twitter, Pornhub and other platforms ban AI-generated celebrity porn. 7. Februar 2018, abgerufen am 4. Februar 2020 (amerikanisches Englisch).
  5. Yvette D. Clarke: H.R.3230 – 116th Congress (2019-2020): Defending Each and Every Person from False Appearances by Keeping Exploitation Subject to Accountability Act of 2019. 28. Juni 2019, abgerufen am 4. Februar 2020.
  6. Samantha Cole: This Horrifying App Undresses a Photo of Any Woman With a Single Click. In: Vice. 26. Juni 2019, abgerufen am 17. Mai 2020 (englisch).
  7. Joseph Cox: GitHub Removed Open Source Versions of DeepNude. In: Vice. 9. Juli 2019, abgerufen am 17. Mai 2020 (englisch).
  8. deepnudeapp: pic.twitter.com/8uJKBQTZ0o. In: @deepnudeapp. 27. Juni 2019, abgerufen am 17. Mai 2020.
  9. Deepfake Art Project Reimagines Nixon’s Speech Had Apollo 11 Gone Horribly Wrong. Abgerufen am 6. März 2020 (amerikanisches Englisch).
  10. a b c Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos. In: az Aargauer Zeitung. 3. Februar 2018 (aargauerzeitung.ch [abgerufen am 8. Februar 2018]).
  11. Patrick Gensing, tagesschau.de: Deepfakes: Auf dem Weg in eine alternative Realität? Abgerufen am 27. Februar 2018 (deutsch).
  12. Co-Creation Studio at MIT Open Documentary Lab: Can Humans Co-Create with Algorithms? 11. Juni 2019, abgerufen am 29. Januar 2020 (englisch).
  13. IMDb, Joseph Ayerle: Un'emozione per sempre 2.0. 24. März 2018, abgerufen am 12. April 2021.
  14. Frankfurter Rundschau: Barack Obama: Fake-Obama beschimpft Donald Trump. Abgerufen am 23. April 2018 (deutsch).
  15. Dreht Obama durch? Dieses Video zeigt eine der grössten Gefahren für Demokratien. In: bz Basellandschaftliche Zeitung. (basellandschaftlichezeitung.ch [abgerufen am 30. April 2018]).
  16. Speaking of AI: Kylo Ren AI Voice in Star Trek. Abgerufen am 18. Juni 2020.
  17. Xiuye Gu, Weixin Luo, Michael S. Ryoo, Yong Jae Lee: Password-conditioned Anonymization and Deanonymization with Face Identity Transformers. In: Computer Science. 29. November 2019, arxiv:1911.11759.
  18. Oran Gafni, Lior Wolf, Yaniv Taigman: Live Face De-Identification in Video. In: Computer Science. 19. November 2019, arxiv:1911.08348.
  19. 5 Areas Where AI Will Turbocharge Privacy Readiness. Abgerufen am 17. Juni 2020 (englisch).
  20. D-ID, the Israeli company that digitally de-identifies faces in videos and still images, raises $13.5 million. In: TechCrunch. Abgerufen am 17. Juni 2020 (amerikanisches Englisch).
  21. Pilotprojekt in Stuttgart: Mit Kameras gegen Corona: Deutsche Bahn will Passagierströme bewusster lenken. Abgerufen am 17. Juni 2020.
  22. K. Hayduk: [Drug therapy of hypertension]. In: Zeitschrift Fur Allgemeinmedizin. Band 51, Nr. 33, 30. November 1975, ISSN 0300-8673, S. 1536–1542, PMID 1909.
  23. Wie ich in nur zwei Wochen gelernt habe, eigene Deepfakes zu produzieren. 26. Januar 2020, abgerufen am 6. März 2020.
  24. Deepfakes: Kann man seinen Augen noch trauen? 3. Dezember 2019, abgerufen am 6. März 2020.
  25. a b Markus Böhm: "Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor. In: Spiegel Online. 7. Februar 2018 (spiegel.de [abgerufen am 8. Februar 2018]).
  26. barbara.wimmer: Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos. (futurezone.at [abgerufen am 8. Februar 2018]).
  27. heise online: Deepfakes: Auch Reddit verbannt Fake-Porn. Abgerufen am 8. Februar 2018.
  28. Reddit verbannt Deepfake-Pornos. Abgerufen am 8. Februar 2018.
  29. Samantha Cole: Pornhub Is Banning AI-Generated Fake Porn Videos, Says They're Nonconsensual. In: Vice. 6. Februar 2018, abgerufen am 20. Mai 2020 (englisch).
  30. Wie leicht es ist, Deepfakes zu erstellen. In: Der Standard. Abgerufen am 17. Juli 2021 (österreichisches Deutsch).
  31. Nick Statt: Thieves are now using AI deepfakes to trick companies into sending them money. 5. September 2019, abgerufen am 17. Mai 2020 (englisch).
  32. Jesse Damiani: A Voice Deepfake Was Used To Scam A CEO Out Of $243,000. Abgerufen am 17. Mai 2020 (englisch).
  33. Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos. Abgerufen am 17. Mai 2020 (Schweizer Hochdeutsch).
  34. Perfect Deepfake Tech Could Arrive Sooner Than Expected. Abgerufen am 17. Mai 2020 (englisch).
  35. Deepfake detection tool unveiled by Microsoft. In: BBC News. 1. September 2020 (bbc.com [abgerufen am 14. April 2021]).
  36. a b Britta Bauchmüller: „Fake-App“: Mit diesem Programm kann jeder im Porno landen – ob er will oder nicht! In: Berliner-Kurier.de. (berliner-kurier.de [abgerufen am 8. Februar 2018]).
  37. Eike Kühl: Künstliche Intelligenz: Auf Fake News folgt Fake Porn. In: Die Zeit. 26. Januar 2018, ISSN 0044-2070 (zeit.de [abgerufen am 8. Februar 2018]).
  38. heise online: Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien. Abgerufen am 8. Februar 2018 (deutsch).
  39. Künstliche Intelligenz: Selfies sind eine gute Quelle. In: Die Zeit. 26. Januar 2018, ISSN 0044-2070 (zeit.de [abgerufen am 8. Februar 2018]).
  40. Gefälschte Rachepornos: Deepfakes werden ein richtiges Problem. Abgerufen am 8. Februar 2018 (österreichisches Deutsch).
  41. Samsung deepfake AI could fabricate a video of you from a single profile pic cnet.com, 24. Mai 2019, abgerufen am 31. Mai 2019.
  42. Mix: This AI lets you generate eerily realistic Jordan Peterson sound bites. 16. August 2019, abgerufen am 29. August 2019 (amerikanisches Englisch).
  43. Jordan Peterson deepfake voice simulator taken offline after Peterson suggests legal action. In: Reclaim The Net. 22. August 2019, abgerufen am 29. August 2019 (amerikanisches Englisch).