Jewiki unterstützen. Jewiki, die größte Online-Enzy­klo­pädie zum Judentum.

Helfen Sie Jewiki mit einer kleinen oder auch größeren Spende. Einmalig oder regelmäßig, damit die Zukunft von Jewiki gesichert bleibt ...

Vielen Dank für Ihr Engagement! (→ Spendenkonten)

How to read Jewiki in your desired language · Comment lire Jewiki dans votre langue préférée · Cómo leer Jewiki en su idioma preferido · בשפה הרצויה Jewiki כיצד לקרוא · Как читать Jewiki на предпочитаемом вами языке · كيف تقرأ Jewiki باللغة التي تريدها · Como ler o Jewiki na sua língua preferida

Deepfake-Pornographie

Aus Jewiki
Zur Navigation springen Zur Suche springen

Deepfake-Pornographie ist ein Pornografie-Segment, das das durch Computer berechnete Einfügen von Gesichtern realer Personen in pornografische Bilder oder Filme zum Inhalt hat.

Definition

Deepfake“ ist ein Kofferwort, das die englischsprachigen Begriffe Deep Learning und Fake kombiniert und die kombinierte Darstellung unterschiedlicher Medienquellen unter Verwendung von Prinzipien künstlicher neuronaler Netze beschreibt, die dem Betrachter den falschen Eindruck vermitteln, ein Subjekt befinde sich in einem Szenario, das tatsächlich nicht in Zusammenhang mit dem Subjekt steht. Ein einfaches Beispiel ist „face swapping“, das vom Computer berechnete Einfügen eines Gesichts in das Abbild eines anderen Menschen. Wird ein Gesicht einer real existierenden Person in pornographische Szenen eingefügt, so dass sich der wahrheitswidrige Eindruck ergibt, die Person sei Teil der Szene, spricht man von Deepfake-Pornographie.

Technik

Für die Berechnung von Deepfake-Filmen werden Techniken aus der KI-Forschung genutzt.[1] Bilder und Videos werden durch Software auf Muster und Gesetzmäßigkeiten analysiert, bis die Software in der Lage ist, sowohl den zu Grunde liegenden Film als auch das zu Grunde liegende Gesicht als dreidimensionales Modell zu berechnen und das Gesichtsmodell in den Film einzufügen. Mit handelsüblicher Hardware betrug die Rechenzeit für diese Aufgabe 2017 je nach verfügbarer Hardware mehrere Stunden bis mehrere Tage. Stand 2020 war eine händische Nachbearbeitung des Rechenresultats die Regel.[2]

Geschichte

Das Einfügen von Gesichtern Prominenter in pornografische Bilder ist ein altbekanntes Phänomen. 2001 gewann beispielsweise die Tennisspielerin Steffi Graf einen Prozess gegen den Technikkonzern Microsoft, da dieser nicht gegen gefälschte Pornobilder mit Grafs Gesicht auf seinem Webportal MSN vorgegangen war.[3] Laut des Variety-Magazins kam das Deepfake-Pornographie-Phänomen im Dezember 2017 auf, als ein Reddit-Nutzer mehrere Pornovideos bereitstellte, in denen scheinbar prominente Frauen mitspielten.[1] Der Erschaffer nutzte frei zugängliche Programme wie Keras oder TensorFlow, um den Film zu erstellen. Laut des Vice-Magazins war die israelische Schauspielerin Gal Gadot (Wonder Woman) das erste Opfer, dessen Gesicht in einen Pornofilm montiert wurde.[4] Binnen Wochen folgten weitere Filme, in denen scheinbar Scarlett Johansson, Maisie Williams, Taylor Swift oder Aubrey Plaza mitspielten. Im Januar 2018 veröffentlichte ein anderer Reddit-Nutzer eine Applikation namens FakeApp, mit der Anwender ohne weitergehende technische Kenntnisse selbst Gesichter in einen Pornofilm montieren konnten.[1]

Bereits unmittelbar nach der Veröffentlichung der ersten Filme wies das Vice-Magazin darauf hin, dass auf Grund der breiten Verfügbarkeit von benötigter Hard- und Software einerseits und der breiten Verfügbarkeit von privaten Fotos in den sozialen Medien andererseits das Erstellen von Deepfake-Pornographie für gezieltes Mobbing gegen Privatpersonen genutzt werden könne.[4] Einzelne Hosting-Seiten begannen schon wenige Wochen nach der Veröffentlichung des ersten Films damit, die von anonymen Nutzern hochgeladenen Filme von ihren Plattformen zu entfernen, woraufhin die Nutzer allerdings auf andere Plattformen auswichen. Zu den Plattformen, die Deepfake-Pornographie über ihre Nutzungsbedingungen aus ihrem Hostingangebot ausschlossen, gehören Discord, Gfycat, Pornhub, Twitter und seit Februar 2018 Reddit selbst.[5] Stand 2020 hatten auch die Social-Media-Plattformen Facebook und Youtube ihre Geschäftsbedingungen dahingehend angepasst, dass Deepfake-Videos nicht hochgeladen werden durften.[2] Das Videoportal Gfycat setzt bei seinen Recherche-Arbeiten dabei eigenen Angaben zufolge seinerseits KI-Techniken zur Erkennung von Deepfake-Pornografie ein. Diese prüfen aber lediglich von Nutzern neu hochgeladene Bildsequenzen, während bereits vor Einsatz der Technologie hochgeladene Werke monatelang unbeanstandet präsentiert wurden und von Nutzern manuell gemeldet werden mussten.[6] Techniken, die Deepfake-Pornographie aus „regulärer“ Pornographie herausfiltern sollen, prüfen Bildsequenzen unter anderem auf auffällige Hautstellen und ungewöhnliche Blinzelfrequenzen der Darstellerinnen.

2019 waren laut einer Analyse der italienischen Firma DeepTrace Technologies fast 96 % aller Deepfake-Videos im Internet pornographische Videos.[7] Zu diesem Zeitpunkt machten südkoreanische Sängerinnen des K-Pop-Genres etwa 25 % der Deepfake-Pornographie-Opfer aus, während die Konsumenten mehrheitlich in China lokalisiert wurden. Das US-Magazin Input zitierte im August 2020 eine nicht näher spezifizierte Studie, der zufolge weltweit pro Monat über 1000 pornographische Deepfake-Videos auf einschlägige Seiten hochgeladen würden.[8]

Stand 2020 haben einige US-Bundesstaaten[9] sowie China und Südkorea Gesetze erlassen, die das Inverkehrbringen von Deepfake-Pornographie unter Strafe stellen.[2]

Rezeption

Der Technologiedienstleister DeepTrace Technologies, der 2019 eine Analyse zum Status der Deepfake-Pornographie veröffentlichte, hielt fest, dass das Pornografie-Segment in den Anfangstagen der Treiber des Deepfake-Markts gewesen sei.[7] Das Medium Deepfake sei zwar prinzipiell geeignet, politische Prozesse zu stören und zu unterminieren, primär werde es aber genutzt, um im Rahmen von Deepfake-Pornographie Frauen zu demütigen und abzuwerten. Das US-Nachrichtenmagazin Business Insider sah darüber hinaus die Gefahr, dass die Opfer der Manipulationen mit diesen erpresst werden. Das Magazin wies auch darauf hin, dass die Deepfake-Pornographievideos keine echten Sexszenen der Opfer zeigten und sich damit in einer rechtlichen Grauzone befänden.[5] Das Technikportal The Verge zeigte bereits im Dezember 2017 die Gefahr auf, dass Deepfake-Pornographie als Mobbing-Mittel gegen Mitschüler und Mitschülerinnen eingesetzt werden könne, und wies darauf hin, dass die Begrenzung des Phänomens dadurch erschwert würde, dass die Ersteller Open-Source- statt proprietärer Software einsetzten.[10] Das Lifestylemagazin Vice äußerte die Sorge, dass technische Maßnahmen gegen Deepfake-Pornographie unweigerlich zu einem „Katz-und-Maus-Spiel“ mit Erstellern und Verbreitern der Filmchen führe, da letztere erfahrungsgemäß nach jeder Installation einer Schutzmaßnahme versuchen würden, diese zu umgehen.[6] Vertreter der Pornofilmindustrie äußerten sich teils kritisch oder besorgt über das Aufkommen von Deepfake-Pornographie. So kritisierte der damalige Finanzvorstand der US-amerikanischen Produktionsfirma Evil Angel, dass Deepfake-Pornographie per Definition Dinge zeige, denen die dargestellte Person nie zugestimmt habe.[1] Der deutsche Spiegel mutmaßte, dass die Medien durch ihre Berichterstattung zum Thema der Popularität von Deepfake-Pornographie Vorschub geleistet hätten, und wies darauf hin, dass die zugrunde liegende Faceswap-Technologie in Apps wie Snapchat längst Eingang in die Massenkultur gefunden habe.[11]

Einzelnachweise

  1. 1,0 1,1 1,2 1,3 Variety.com: Porn Producers Offer to Help Hollywood Take Down Deepfake Videos. Abgerufen am 29. November 2020.
  2. 2,0 2,1 2,2 IEEE.org: What Are Deepfakes and How Are They Created? Abgerufen am 29. November 2020.
  3. Spiegel.de: Steffi Graf gewinnt gegen Microsoft. Abgerufen am 29. November 2020.
  4. 4,0 4,1 Vice.com: AI-Assisted Fake Porn Is Here and We’re All Fucked. Abgerufen am 29. November 2020.
  5. 5,0 5,1 BusinessInsider.com: From porn to 'Game of Thrones': How deepfakes and realistic-looking fake videos hit it big. Abgerufen am 29. November 2020.
  6. 6,0 6,1 Vice.com: Gfycat's AI Solution for Fighting Deepfakes Isn't Working. Abgerufen am 29. November 2020.
  7. 7,0 7,1 RollingStone.com: Deepfake Porn Is Still a Threat, Particularly for K-Pop Stars. Abgerufen am 29. November 2020.
  8. InputMag.com: Deepfake porn is getting easier to make and it's coming for regular people soon. Abgerufen am 29. November 2020.
  9. TheFulcrum.us: Deepfakers beware: Do it in California or Texas and you'll be in deep trouble. Abgerufen am 29. November 2020.
  10. TheVerge.com: AI tools will make it easy to create fake porn of just about anybody. Abgerufen am 29. November 2020.
  11. Spiegel.de: Firmen gehen gegen gefälschte Promi-Pornos vor. Abgerufen am 29. November 2020.
Dieser Artikel basiert ursprünglich auf dem Artikel Deepfake-Pornographie aus der freien Enzyklopädie Wikipedia und steht unter der Doppellizenz GNU-Lizenz für freie Dokumentation und Creative Commons CC-BY-SA 3.0 Unported. In der Wikipedia ist eine Liste der ursprünglichen Wikipedia-Autoren verfügbar.