Deepfake

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Durch jüngste Fortschritte bei künstlichen neuronalen Netzwerken wurde es möglich, falsche, aber täuschend echt wirkende Bilder oder Videos automatisiert mit Hilfe neuronaler Netze zu erzeugen. Auf diese Weise erzeugte Medieninhalte werden mit dem Kofferwort Deepfake bezeichnet, das sich aus dem Schlagwort Deep Learning und dem englischen Wort Fake, was auf Deutsch so viel wie Unwahrheit oder Schwindel bedeutet, zusammensetzt.

Anwendung und Geschichte[Bearbeiten | Quelltext bearbeiten]

Deepfakes werden genutzt, um Politiker auf Videoportalen oder Imageboards falsch darzustellen. So wurde zum Beispiel das Gesicht des argentinischen Präsidenten Mauricio Macri durch das von Adolf Hitler oder das von Angela Merkel durch das von Donald Trump ersetzt.[1][2]

In der Kunst werden Deepfakes als Mittel der Zuspitzung verwendet, um sich über popkulturelle Dinge lustig zu machen. Der Künstler Joseph Ayerle nutzte Deepfake für den Kurzfilm Un’emozione per sempre 2.0, um eine Zeitreise der Protagonistin Ornella Muti aus dem Jahr 1978 in das Jahr 2018 zu inszenieren. Im April 2018 veröffentlichte der US-amerikanische Comedian Jordan Peele gemeinsam mit Buzzfeed ein Deepfake-Video, in dem er Barack Obama vor den Gefahren manipulierter Videos warnen lässt.[3] In diesem Video bezeichnet der „synthetische“ Barack Obama unter anderem den US-Präsidenten Donald Trump als „kompletten Volltrottel“.[4] In Informatik, Mathematik und Kunst sind Algorithmen für Maschinelles Lernen, die sich mit der Generierung von solchen Medien-Dateien beschäftigen, ein Forschungs- und Entwicklungsgebiet.

Pornoskandal seit Ende 2017[Bearbeiten | Quelltext bearbeiten]

Anfänge und Reaktion auf Reddit[Bearbeiten | Quelltext bearbeiten]

Im Herbst 2017 stellte ein anonymer Reddit-Nutzer unter dem Pseudonym „Deepfakes“ mehrere Pornovideos ins Internet. So war die Wonder-Woman-Darstellerin Gal Gadot beim Sex mit ihrem Stiefbruder und andere Schauspielerinnen wie Emma Watson, Katy Perry, Taylor Swift oder Scarlett Johansson zu sehen. Diese Szenen waren nicht echt, sondern waren unter Verwendung künstlicher Intelligenz erstellt worden und waren rasch entlarvt. Als Trainingsdaten hatte der Reddit-Nutzer Szenen aus Sexfilmen und Spielfilmen mit der Schauspielerin verwendet. Nach einem Bericht im Dezember 2017 im Magazin Vice wurde das Thema von weiteren Medien aufgenommen.[5][6] In den folgenden Wochen überarbeiteten und verbesserten andere Reddit-Nutzer der Entwickler-Community das Vorgehen des Erstentwicklers, womit es zunehmend schwieriger wurde, gefälschte von echten Inhalten zu unterscheiden. Auf dem dazu auf Reddit gegründeten Subreddit „Deepfakes“ wurden bis dessen Sperrung am 7. Februar 2018 von mehr als 50.000 Nutzern Deepfake-Videos ausgetauscht.[1][6][7][8][9]

App und Massenphänomen[Bearbeiten | Quelltext bearbeiten]

Ende Januar 2018 startete eine App namens FakeApp, mit der Nutzer leicht in Videos Gesichter austauschen können, als sei damit eine andere Person im Video zu sehen (Face Swap). Ein Algorithmus berechnet mithilfe eines künstlichen neuronalen Netzes und der Leistung des Grafikprozessors sowie mit drei bis vier Gigabyte Festplattenspeicher das zu erzeugende Fake-Video. Für genaue Angaben braucht das Programm viel Bildmaterial von der einzufügenden Person, um mithilfe des erwähnten Deep-Learning-Algorithmus auf Basis der Videosequenzen und Bilder zu lernen, welche Bildaspekte ausgetauscht werden müssen. Die Software nutzt dabei das KI-Framework TensorFlow von Google, welches unter anderem bereits für das Programm DeepDream verwendet wurde. Vorwiegend sind Prominente von derart gefälschten Sexvideos betroffen, obwohl Privatpersonen Ziel sein können.[10][11][12]

Kritik[Bearbeiten | Quelltext bearbeiten]

Machtmissbrauch der Technologie[Bearbeiten | Quelltext bearbeiten]

Die Aargauer Zeitung meint, dass die Manipulation von Bildern und Videos mittels künstlicher Intelligenz zu einem gefährlichen Massenphänomen werden könnte. Das Verfälschen von Bildern und Videos sei älter als das Aufkommen von Videoschnittsoftware und Bildbearbeitungsprogrammen. Der Realismus sei hierbei jedoch ein neuer.[1] Der österreichische Standard schreibt: „Deepfake-News … könnten Kriege auslösen.“[13]

Es besteht die Möglichkeit, Deepfake für gezielte Falschmeldungen und Rachepornos zu verwenden. Zivil- oder strafrechtliches Vorgehen ist möglich, obwohl die Inhalte nicht echt sind (wie wegen Verletzung von Persönlichkeitsrechten und Sexualbeleidigung).[14][15] Voraussetzung hierfür ist aber, dass sich der Täter identifizieren lässt. Dies ist im Internet aufgrund von Anonymität und Pseudonymität sowie gegenseitigem Hin- und Herreichen nicht immer möglich.[16]

Verfall von Glaubwürdigkeit und Sinn für Echtheit[Bearbeiten | Quelltext bearbeiten]

Kritisch kann es zudem werden, wenn nicht mehr unterschieden werden kann, ob Inhalte gezielte Satire oder tatsächlich echt sind. So sagt der KI-Forscher Alex Champandard, dass jeder wissen sollte, wie schnell sich Fotos und Videosequenzen mit dieser Technologie verfälschen lassen. Dies sei aber nicht technisch, sondern durch Vertrauen in Informationen und Journalismus zu klären. Andernfalls könnte die Menschheit in ein Zeitalter fallen, in dem nicht mehr abzugrenzen ist, ob die dargestellten Medien der Wahrheit entsprechen. Der Google-Ingenieur Ian Goodfellow sagte zu den Entwicklungen gegenüber dem Technology Review des Massachusetts Institute of Technology: „Es ist ein historischer Glücksfall, dass wir uns bisher auf Videos als Beweis für Tatsachen verlassen konnten.“[1][10]

Reaktionen anderer Internetseiten[Bearbeiten | Quelltext bearbeiten]

Einige Internetseiten wie die Microblogging-Plattform Twitter und Gif-Austauschplattform Gfycat kündigten an, solche Inhalte zu löschen, sowie deren Veröffentlicher zu sperren. Zuvor hatte die Chatplattform Discord einen Chat-Kanal mit gefälschten Promi-Pornovideos gesperrt. Die Pornowebsite Pornhub plant die Sperrung solcher Inhalte.

Weblinks[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. a b c d Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos. In: az Aargauer Zeitung. 3. Februar 2018 (aargauerzeitung.ch [abgerufen am 8. Februar 2018]).
  2. Patrick Gensing, tagesschau.de: Deepfakes: Auf dem Weg in eine alternative Realität? Abgerufen am 27. Februar 2018 (deutsch).
  3. Frankfurter Rundschau: Barack Obama: Fake-Obama beschimpft Donald Trump. Abgerufen am 23. April 2018 (deutsch).
  4. Dreht Obama durch? Dieses Video zeigt eine der grössten Gefahren für Demokratien. In: bz Basellandschaftliche Zeitung. (basellandschaftlichezeitung.ch [abgerufen am 30. April 2018]).
  5. AI-Assisted Fake Porn Is Here and We’re All Fucked. In: Motherboard. 11. Dezember 2017 (vice.com [abgerufen am 8. Februar 2018]).
  6. a b Markus Böhm: "Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor. In: Spiegel Online. 7. Februar 2018 (spiegel.de [abgerufen am 8. Februar 2018]).
  7. barbara.wimmer: Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos. (futurezone.at [abgerufen am 8. Februar 2018]).
  8. heise online: Deepfakes: Auch Reddit verbannt Fake-Porn. Abgerufen am 8. Februar 2018 (deutsch).
  9. Reddit verbannt Deepfake-Pornos. Abgerufen am 8. Februar 2018 (österreichisches Deutsch).
  10. a b Britta Bauchmüller: „Fake-App“: Mit diesem Programm kann jeder im Porno landen – ob er will oder nicht! In: Berliner-Kurier.de. (berliner-kurier.de [abgerufen am 8. Februar 2018]).
  11. Eike Kühl: Künstliche Intelligenz: Auf Fake News folgt Fake Porn. In: Die Zeit. 26. Januar 2018, ISSN 0044-2070 (zeit.de [abgerufen am 8. Februar 2018]).
  12. heise online: Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien. Abgerufen am 8. Februar 2018 (deutsch).
  13. Deepfake-News täuschen alle Sinne – und könnten Kriege auslösen. Abgerufen am 13. Mai 2018 (österreichisches Deutsch).
  14. Künstliche Intelligenz: Selfies sind eine gute Quelle. In: Die Zeit. 26. Januar 2018, ISSN 0044-2070 (zeit.de [abgerufen am 8. Februar 2018]).
  15. „Deepfake“ – FakeApp kann Personen in Pornos austauschen – Welche Rechte haben Geschädigte? In: WILDE BEUGER SOLMECKE Rechtsanwälte. 2. Februar 2018 (wbs-law.de [abgerufen am 8. Februar 2018]).
  16. Gefälschte Rachepornos: Deepfakes werden ein richtiges Problem. Abgerufen am 8. Februar 2018 (österreichisches Deutsch).