Deshalb könnten Sie bald in Pornos mitspielen – ohne es zu wissen

"Deepfake"-Pornos: Jeder könnte betroffen sein.
"Deepfake"-Pornos: Jeder könnte betroffen sein. - © Symbolbild/bilderbox
“Deepfakes” nennen sich täuschend echt gefälschte Porno-Videos – meist mit Promis. Doch das Schicksal könnte uns bald allen drohen.

“Stellen Sie sich vor, Sie werden mit einem Video konfrontiert, das Sie eindeutig beim Sex zeigt – obwohl Sie so etwas nie aufgenommen haben”. Diese Frage stellt “Stern”-Redakteur Malte Mansholt in seinem Artikel über “Deepfakes”. Der Begriff – sowie die dahinter stehenden Videos – dürften uns wohl noch länger beschäftigen. Worum geht es? Das Prinzip ist grundsätzlich – erschreckend – einfach: Ein Reddit-User, der sich an Googles neurales Netzwerk “Deep Dream” angelehnt als “Deepfake” bezeichnet, hat bereits mehrere Hardcore-Pornos von Promis raufgeladen – unter anderem von Taylor Swift, Scarlett Johansson, Maisie Williams sowie Gal Gadot. Natürlich haben diese nie in den Filmchen mitgespielt – auch wenn es täuschend echt danach aussieht.

So werden die “Fake-Pornos” erstellt

Wie Mansholt berichtet, musste “Deepfake” in die Erstellung seiner “Fake”-Pornos kaum Arbeit investieren. Er wies lediglich ein neurales Netzwerk an, die Bild-Quellen zusammenzubauen. Das Ergebnis war ein Promi-Porno. Gegenüber “Motherboard” erklärt “Deepfake”: Er habe eine Software genutzt, die er sich aus mehreren kostenlosen Tools zusammenbastelte. Die Pornos dienten als Basis. Dann fügt er Bilder aus Google-Suchen, Stock-Fotos und Clips der Stars hinzu. Den Rest erledigt das Programm. Mittlerweile hat “Deepfake” sein Programm derart ausgefeilt, dass es binnen Stunden längere Videos erstellen kann.

Screenshot/FakeApp Screenshot/FakeApp ©

Jeder könnte in Pornos zu sehen sein

Doch mit dem Programm könnten nicht nur Videos von Promis erstellt werden: In Zeiten von Instagram, Facebook & Co. und einer wahren Fülle an “Bildmaterial” an Selfies und sonstigen Bildern könnten sich kompromittierende Videos beliebiger Personen erstellen lassen – komplett problemlos. Selbst Unfallaufnahmen oder Überwachungsvideos ließen sich so faken.

Auch Star-Wars-Star Daisy Ridley ist in einem Fake-Video zu sehen. Reddit ©

Noch, so “Stern” in seinem Bericht, bräuchte man dafür relativ leistungsfähige Hardware. Besonders teuer ist diese allerdings nicht mehr. Auch andere Nutzer nützen die Technologie mittlerweile. Diese nutzen sie etwa auch für Parodien – teilweise aber bereits für “Rachepornos”.

KI-Experten geben vorsichtig Entwarnung

KI-Experten geben allerdings leichte Entwarnung: Man könnte auch Gegenprogramme entwickeln, mit denen man theoretisch Fakes erkennen könnte. Übrigens wird die Technik an sich bereits genutzt. So ließ Disney Prinzessin Leia in der Schlussszene von “Rogue One: A Star Wars Story” in jungen Jahren auftauchen. Dafür investierte der Konzern Unmengen an Geld und Arbeit. “Deepfakes” wies sein Programm an, die Szene ebenso nachzubauen. Es brauchte dafür 20 Minuten – und die Szene sah am Ende fast genauso aus wie das Original.

Merkel-Trump-Fake

Leserreporter
Bild an VOL.AT schicken


0Kommentare

Herzlichen Dank für Ihren Kommentar - dieser wird nach einer Prüfung von uns freigeschaltet. Beachten Sie, dass dies gerade an Wochenenden etwas länger dauern kann. Kommentare von registrierten Usern werden sofort freigeschaltet - hier registrieren!

noch 1000 Zeichen