Deepfake

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Als Deepfake werden von künstlicher Intelligenz erschaffene verfälschte Medien-Dateien wie Bilder oder Videos bezeichnet. Der Begriff ist ein Kofferwort aus Deep Learning und dem englischen Wort Fake, was auf Deutsch so viel wie Unwahrheit oder Schwindel bedeutet. Dabei kommen meist weitere Technologien aus der Bild- und Videobearbeitung wie das Morphing zum Einsatz.

Anwendung und Geschichte[Bearbeiten | Quelltext bearbeiten]

Deepfakes in der Politik[Bearbeiten | Quelltext bearbeiten]

Deepfakes werden auch genutzt um bekannte Politiker auf Videoportalen oder Imageboards falsch darzustellen. So wurde zum Beispiel das Gesicht des argentinischen Präsidenten Mauricio Macri durch das von Adolf Hitler oder das von Angela Merkel mit dem vom Donald Trump ersetzt.[1][2]

Deepfakes als Kunst- und Unterhaltungsform und Forschungsgegenstand[Bearbeiten | Quelltext bearbeiten]

Deepfakes werden auch benutzt um neue Kunstwerke zu schaffen oder sich über popkulturelle Dinge lustig zu machen. So nutzte zum Beispiel der Künstler Joseph Ayerle Deepfake für den Kurzfilm "Un'emozione per sempre 2.0", um eine Zeitreise der Protagonistin Ornella Muti aus dem Jahr 1978 in das Jahr 2018 zu inszenieren. Im April 2018 veröffentlichte der US-amerikanische Comedian Jordan Peele gemeinsam mit Buzzfeed ein Deepfake-Video, in dem er Barack Obama vor den Gefahren manipulierter Videos warnen lässt.[3] In diesem Video bezeichnet der synthetische Barack Obama unter anderem den US-Präsidenten Donald Trump als "kompletten Volltrottel".[4] In der Informatik, Mathematik und Kunst sind Algorithmen für Maschinelles Lernen, die sich mit der Generierung von solchen Medien-Dateien beschäftigen, ein aktuelles Forschungs- und Entwicklungsgebiet.

Pornoskandal seit Ende 2017[Bearbeiten | Quelltext bearbeiten]

Anfänge und Reaktion auf Reddit[Bearbeiten | Quelltext bearbeiten]

Im Herbst 2017 stellte ein anonymer Reddit-Nutzer unter dem Pseudonym "Deepfakes" mehrere Pornovideos ins Internet. Dort war die Wonder-Woman-Darstellerin Gal Gadot beim Sex mit ihrem Stiefbruder sowie andere Schauspielerinnen wie Emma Watson, Katy Perry, Taylor Swift oder Scarlett Johansson zu sehen. Diese Szenen waren nicht echt, wurden mit einer künstlichen Intelligenz erstellt und kurze Zeit später entlarvt. Die große Community behob jedoch viele Fehler, sodass es zunehmend schwierig wurde, gefälschte von echten Inhalten zu unterscheiden. Als Trainingsdaten benutze der Reddit-Nutzer Datensätze aus Sexfilmen und der jeweiligen Schauspielerin. Erstmals berichtet wurde darüber im Dezember 2017 im Technik- und Wissenschaftsteil des Magazins Vice. Dieser Bericht sorgte dafür, dass das Thema von vielen weiteren Medien aufgegriffen wurde.[5][6]

Später wurde auf Reddit der Subrredit „Deepfakes“ gegründet, wo sich mehr als 50.000 Nutzer Videos dieser Art austauschen.[1]

App und Massenphänomen[Bearbeiten | Quelltext bearbeiten]

Ende Januar 2018 startete eine App namens FakeApp, mit der Nutzer sehr einfach in Videos Gesichter austauschen und es so aussehen lassen können, als sei damit eine andere Person im Video zu sehen (Face Swap). Ein Algorithmus berechnet mithilfe eines künstliches neuronalen Netzes und der Leistung des Grafikprozessors sowie mit drei bis vier Gigabyte Festplattenspeicher das zu erzeugende Fake-Video. Für genaue Angaben braucht das Programm viel Bildmaterial von der einzufügenden Person, um mithilfe des vormals erwähnten Deep-Learning-Algorithmus auf Basis der Videosequenzen und Bilder zu lernen, welche Bildaspekte ausgetauscht werden müssen. Die Software nutzt dabei das KI-Framework TensorFlow von Google, welches unter anderem bereits für das Programm DeepDream verwendet wurde. Hauptsächlich von derart gefälschten Sexvideos betroffen sind Prominente, doch auch Privatpersonen sind Betroffene.[7][8][9]

Kritik[Bearbeiten | Quelltext bearbeiten]

Machtmissbrauch der Technologie[Bearbeiten | Quelltext bearbeiten]

Die Aargauer Zeitung sagt, dass die Manipulation von Bildern und Videos mittels künstlicher Intelligenz zu einem gefährlichen Massenphänomen werden könnte. Das Verfälschen von Bildern und Videos sei aber auch noch älter als das Aufkommen von Videoschnittsoftware und Bildbearbeitungsprogrammen. Der Realismus sei hierbei jedoch ein neuer.[1] Der österreichische "Standard" meint, "Deepfake-News... könnten Kriege auslösen."[10]

Es besteht die Möglichkeit, Deepfake für gezielte Falschmeldungen und Rachepornos zu verwenden. Ein zivil- oder strafrechtliches Vorgehen ist aber möglich, obwohl die Inhalte nicht echt sind (z. B. wegen Verletzung von Persönlichkeitsrechten und Sexualbeleidigung).[11][12] Voraussetzung hierfür ist aber, dass sich der Täter identifizieren lässt. Dies ist im Internet aufgrund von Anonymität und Pseudonymität sowie gegenseitigen Hin und Herreichens nicht immer möglich.[13]

Verfall von Glaubwürdigkeit und Sinn für Echtheit[Bearbeiten | Quelltext bearbeiten]

Kritisch kann es zudem werden, wenn nicht mehr unterschieden werden kann, ob Inhalte gezielte Satire oder echt sind. So sagt der KI-Forscher Alex Champandard, dass jeder wissen sollte, wie schnell sich heute Dinge mit dieser Technologie verfälschen lassen. Dieses Problem sei aber nicht technisch, sondern durch Vertrauen in Informationen und Journalismus zu klären. Andernfalls könnte die Menschheit in ein Zeitalter fallen, in dem es nicht mehr abzugrenzen ist, ob die dargestellten Medien der Wahrheit entsprechen. Der Google-Ingenieur Ian Goodfellow sagt zu den Entwicklungen gegenüber dem Technology Review des Massachusetts Institute of Technology: „Es ist ein historischer Glücksfall, dass wir uns bisher auf Videos als Beweis für Tatsachen verlassen konnten.“[1][7]

Reaktionen anderer Internetseiten[Bearbeiten | Quelltext bearbeiten]

Einige Internetseiten wie die Microblogging-Plattform Twitter und Gif-Austauschplattform Gfycat kündigten an, solche Inhalte zu löschen sowie deren Veröffentlicher zu sperren. Zuvor hatte die Chatplattform Discord einen Chat-Kanal mit gefälschten Promi-Pornovideos gesperrt. Auch die Pornowebsite Pornhub plant eine Sperrung von solchen Inhalten. Bei Reddit blieb die Situation zunächst unklar, bis der Subreddit am 7. Februar 2018 aufgrund des Richtlinienverstoßes "unfreiwilliger Pornografie" gesperrt wurde.[6][14][15][16]

Weblinks[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. a b c d Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos. In: az Aargauer Zeitung. 3. Februar 2018 (aargauerzeitung.ch [abgerufen am 8. Februar 2018]).
  2. Patrick Gensing, tagesschau.de: Deepfakes: Auf dem Weg in eine alternative Realität? Abgerufen am 27. Februar 2018 (deutsch).
  3. Frankfurter Rundschau: Barack Obama: Fake-Obama beschimpft Donald Trump. Abgerufen am 23. April 2018 (deutsch).
  4. Dreht Obama durch? Dieses Video zeigt eine der grössten Gefahren für Demokratien. In: bz Basellandschaftliche Zeitung. (basellandschaftlichezeitung.ch [abgerufen am 30. April 2018]).
  5. AI-Assisted Fake Porn Is Here and We’re All Fucked. In: Motherboard. 11. Dezember 2017 (vice.com [abgerufen am 8. Februar 2018]).
  6. a b Markus Böhm: "Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor. In: Spiegel Online. 7. Februar 2018 (spiegel.de [abgerufen am 8. Februar 2018]).
  7. a b Britta Bauchmüller: „Fake-App“: Mit diesem Programm kann jeder im Porno landen – ob er will oder nicht! In: Berliner-Kurier.de. (berliner-kurier.de [abgerufen am 8. Februar 2018]).
  8. Eike Kühl: Künstliche Intelligenz: Auf Fake News folgt Fake Porn. In: Die Zeit. 26. Januar 2018, ISSN 0044-2070 (zeit.de [abgerufen am 8. Februar 2018]).
  9. heise online: Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien. Abgerufen am 8. Februar 2018 (deutsch).
  10. Deepfake-News täuschen alle Sinne – und könnten Kriege auslösen. Abgerufen am 13. Mai 2018 (österreichisches Deutsch).
  11. Künstliche Intelligenz: Selfies sind eine gute Quelle. In: Die Zeit. 26. Januar 2018, ISSN 0044-2070 (zeit.de [abgerufen am 8. Februar 2018]).
  12. „Deepfake“ - FakeApp kann Personen in Pornos austauschen – Welche Rechte haben Geschädigte? In: WILDE BEUGER SOLMECKE Rechtsanwälte. 2. Februar 2018 (wbs-law.de [abgerufen am 8. Februar 2018]).
  13. Gefälschte Rachepornos: Deepfakes werden ein richtiges Problem. Abgerufen am 8. Februar 2018 (österreichisches Deutsch).
  14. barbara.wimmer: Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos. (futurezone.at [abgerufen am 8. Februar 2018]).
  15. heise online: Deepfakes: Auch Reddit verbannt Fake-Porn. Abgerufen am 8. Februar 2018 (deutsch).
  16. Reddit verbannt Deepfake-Pornos. Abgerufen am 8. Februar 2018 (österreichisches Deutsch).