Deepfake

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Deepfake, auch Deep Fake (engl. deep ‚tief‘ und fake ‚Fälschung‘) ist ein seit ca. 2017 gebräuchlicher Ausdruck für die Technik, mit Hilfe von Künstlicher Intelligenz täuschend echt wirkende Bilder oder Videos herzustellen, die nicht echt sind. Die Technik basiert auf künstlichen neuronalen Netzwerken, die die gefälschten Medien weitgehend autonom erzeugen. Deepfake ist ein Kofferwort, wobei Deep mit Deep Learning assoziiert wird.

Anwendung[Bearbeiten | Quelltext bearbeiten]

In der Kunst werden Deepfakes als Mittel der Zuspitzung verwendet, etwa um sich über popkulturelle Dinge lustig zu machen. Der Künstler Joseph Ayerle nutzte Deepfake für den Kurzfilm Un’emozione per sempre 2.0, um eine Zeitreise der Protagonistin Ornella Muti aus dem Jahr 1978 in das Jahr 2018 zu inszenieren. Im April 2018 veröffentlichte der US-amerikanische Kabarettist Jordan Peele gemeinsam mit BuzzFeed ein Deepfake-Video, in dem er Barack Obama vor den Gefahren manipulierter Videos warnen lässt.[1] In diesem Video bezeichnet der „synthetische“ Ex-Präsident unter anderem seinen Nachfolger Donald Trump als „kompletten Volltrottel“.[2]

In Informatik, Mathematik und Kunst sind Algorithmen für Maschinelles Lernen, die sich mit der Generierung von solchen Medien-Dateien beschäftigen, ein Forschungs- und Entwicklungsgebiet.

Deepfakes werden genutzt, um Politiker auf Videoportalen oder Imageboards falsch darzustellen. So wurde zum Beispiel das Gesicht des argentinischen Präsidenten Mauricio Macri durch das von Adolf Hitler oder das von Angela Merkel durch das von Donald Trump ersetzt.[3][4]

Deepfakes in der Pornoindustrie[Bearbeiten | Quelltext bearbeiten]

Im Herbst 2017 stellte ein anonymer Reddit-Nutzer unter dem Pseudonym „Deepfakes“ mehrere Pornovideos ins Internet. So war die Wonder-Woman-Darstellerin Gal Gadot beim Sex mit ihrem Stiefbruder und andere Schauspielerinnen wie Emma Watson, Katy Perry, Taylor Swift oder Scarlett Johansson zu sehen. Diese Szenen waren nicht echt, sondern unter Verwendung künstlicher Intelligenz erstellt worden und rasch entlarvt. Als Trainingsdaten für sein Neuronales Netz hatte der Reddit-Nutzer Szenen aus Sexfilmen und Spielfilmen mit der Schauspielerin verwendet. Nach einem Bericht im Dezember 2017 im Magazin Vice wurde das Thema von weiteren Medien aufgenommen.[5][6] In den folgenden Wochen überarbeiteten und verbesserten andere Reddit-Nutzer der Entwickler-Community das Vorgehen des Erstentwicklers, womit es zunehmend schwieriger wurde, gefälschte von echten Inhalten zu unterscheiden. Auf dem dazu auf Reddit gegründeten Subreddit „Deepfakes“ wurden bis zu dessen Sperrung am 7. Februar 2018 von mehr als 50.000 Nutzern Deepfake-Videos ausgetauscht.[3][6][7][8][9]

Sonstiges[Bearbeiten | Quelltext bearbeiten]

  • Ende Januar 2018 startete eine App namens FakeApp, mit der Nutzer leicht in Videos Gesichter austauschen können, als sei damit eine andere Person im Video zu sehen (Face Swap). Ein Algorithmus berechnet mithilfe eines künstlichen neuronalen Netzes und der Leistung des Grafikprozessors sowie mit drei bis vier Gigabyte Festplattenspeicher das zu erzeugende Fake-Video. Für genaue Angaben braucht das Programm viel Bildmaterial von der einzufügenden Person, um mithilfe des erwähnten Deep-Learning-Algorithmus auf Basis der Videosequenzen und Bilder zu lernen, welche Bildaspekte ausgetauscht werden müssen. Die Software nutzt dabei das KI-Framework TensorFlow von Google, welches unter anderem bereits für das Programm DeepDream verwendet wurde. Vorwiegend sind Prominente von derart gefälschten Sexvideos betroffen, obwohl Privatpersonen Ziel sein können.[10][11][12]
  • Zivil- oder strafrechtliches Vorgehen ist möglich, obwohl die Inhalte nicht echt sind (wie wegen Verletzung von Persönlichkeitsrechten und Sexualbeleidigung).[13] Voraussetzung hierfür ist aber, dass sich der Täter identifizieren lässt. Dies ist im Internet aufgrund von Anonymität und Pseudonymität sowie gegenseitigem Hin- und Herreichen nicht immer möglich.[14]
  • Der KI-Forscher Alex Champandard hält ein tradiertes hohes Vertrauen in den Journalismus und Medien für einen Grund für den Erfolg von Deepfakes. Der Google-Ingenieur Ian Goodfellow bezeichnet es als einen historischen Glücksfall, dass wir uns „bisher auf Videos als Beweis für Tatsachen verlassen konnten“.[3][10]
  • Im Mai 2019 ist es Forschern des Samsung-Laboratoriums in Moskau gelungen, ein KI-System zu entwickeln, das in der Lage ist, aus einem einzigen Bild ein Fake-Video zu erstellen. Sie schufen aus dem Porträt der Mona Lisa drei verschiedene Videos einer sprechenden und sich bewegenden Frau.[15]
  • Die Webseite notjordanpeterson.com nutzte die Technologie der "Deepfakes", um den kanadischen Psychologen Jordan Peterson, welcher im Internet durch kontroverse Aussagen und Interviews einige Berühmtheit erlangte, per Textfeld eingegebene, beliebige Sätze scheinbar sagen zu lassen, wobei der verwendete Algorithmus relativ realistisch klingende Resultate lieferte.[16] Die Funktionalität der Webseite wurde nach Androhung von rechtlichen Schritten von Seiten des Psychologen vorerst deaktiviert.[17]

Weblinks[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Frankfurter Rundschau: Barack Obama: Fake-Obama beschimpft Donald Trump. Abgerufen am 23. April 2018 (deutsch).
  2. Dreht Obama durch? Dieses Video zeigt eine der grössten Gefahren für Demokratien. In: bz Basellandschaftliche Zeitung. (basellandschaftlichezeitung.ch [abgerufen am 30. April 2018]).
  3. a b c Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos. In: az Aargauer Zeitung. 3. Februar 2018 (aargauerzeitung.ch [abgerufen am 8. Februar 2018]).
  4. Patrick Gensing, tagesschau.de: Deepfakes: Auf dem Weg in eine alternative Realität? Abgerufen am 27. Februar 2018 (deutsch).
  5. AI-Assisted Fake Porn Is Here and We’re All Fucked. In: Motherboard. 11. Dezember 2017 (vice.com [abgerufen am 8. Februar 2018]).
  6. a b Markus Böhm: "Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor. In: Spiegel Online. 7. Februar 2018 (spiegel.de [abgerufen am 8. Februar 2018]).
  7. barbara.wimmer: Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos. (futurezone.at [abgerufen am 8. Februar 2018]).
  8. heise online: Deepfakes: Auch Reddit verbannt Fake-Porn. Abgerufen am 8. Februar 2018 (deutsch).
  9. Reddit verbannt Deepfake-Pornos. Abgerufen am 8. Februar 2018 (österreichisches Deutsch).
  10. a b Britta Bauchmüller: „Fake-App“: Mit diesem Programm kann jeder im Porno landen – ob er will oder nicht! In: Berliner-Kurier.de. (berliner-kurier.de [abgerufen am 8. Februar 2018]).
  11. Eike Kühl: Künstliche Intelligenz: Auf Fake News folgt Fake Porn. In: Die Zeit. 26. Januar 2018, ISSN 0044-2070 (zeit.de [abgerufen am 8. Februar 2018]).
  12. heise online: Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien. Abgerufen am 8. Februar 2018 (deutsch).
  13. Künstliche Intelligenz: Selfies sind eine gute Quelle. In: Die Zeit. 26. Januar 2018, ISSN 0044-2070 (zeit.de [abgerufen am 8. Februar 2018]).
  14. Gefälschte Rachepornos: Deepfakes werden ein richtiges Problem. Abgerufen am 8. Februar 2018 (österreichisches Deutsch).
  15. Samsung deepfake AI could fabricate a video of you from a single profile pic cnet.com, 24. Mai 2019, abgerufen am 31. Mai 2019.
  16. Mix: This AI lets you generate eerily realistic Jordan Peterson sound bites. 16. August 2019, abgerufen am 29. August 2019 (amerikanisches Englisch).
  17. Jordan Peterson deepfake voice simulator taken offline after Peterson suggests legal action. In: Reclaim The Net. 22. August 2019, abgerufen am 29. August 2019 (amerikanisches Englisch).