2018/01: Nutzer basteln mit App täuschend echte Promi-Pornos und Hitler-Parodien

Mithilfe künstlicher Intelligenz entstehen Fake-Videos – auf Reddit folgt dem Trend schon eine große Community

Das Gesicht von Schauspielerin Daisy Ridley wurde auf den Körper einer Pornodarstellerin montiert.

Screenshot: Vice/

Künstliche Intelligenz erledigt bereits verblüffende Aufgaben. Microsoft etwa hat vor kurzem einen Bot vorgestellt, der Bilder anhand von wenigen Begriffen erschaffen kann. Die Technologie lässt sich aber auch für unlautere Zwecke einsetzen. Im Netz herrscht nun Aufregung um eine Software, die genutzt wird, um die Gesichter bekannter Schauspielerinnen und anderer Prominenter in Pornofilme zu montieren. Dabei werden erstaunlich realistische Resultate erzielt.

 

Fake App

Auf Reddit hat sich eine mehrere tausend Mitglieder große Gruppe zusammengefunden, die diesem zweifelhaften Hobby frönt. Den „Trend“ startete der Reddit-Nutzer Deepfakes, dessen Name mittlerweile zum geflügelten Wort für derartige Videos geworden ist, wie „Vice“ berichtet. Er bastelte die Videos noch mit größerem Aufwand selbst. Ein Entwickler aus der Gruppe hat dann die Software Fake App programmiert, mit der nun auch Nutzer ohne Vorkenntnisse solche Clips erstellen können. Voraussetzung sei ein Computer mit starker Grafikkarte und CUDA-Support sowie jeweils ein Video der Protagonisten, deren Gesichter getauscht werden sollen.

Fake App kann verblüffend echt wirkende Videomontagen erstellen. Bei den meisten Videos und Gifs handelt es sich um Pornos. So wurden etwa die Gesichter der Schauspielerinnen Daisy Ridley, Maisie Williams und Gal Gadot auf die Köpfe von Pornodarstellerinnen montiert.

Hitler und Prinzessin Leia

Es gibt aber auch Videos, die mit einem etwas ernsthafteren Anspruch zeigen sollen, wie mächtig das Tool ist. So hat ein Nutzer Prinzessin Leia (Carrie Fisher) aus „Star Wars: Rogue One“ als CGI-Figur nachgebaut. Aber auch zweifelhafte Parodien findet man: Ein Nutzer hat Aufnahmen des argentinischen Präsidenten Mauricio Macri mit Hitler kombiniert.

Experten gehen davon aus, dass die Software und ähnliche andere Tools bald so gut sind, dass es für Nutzer unmöglich wird, den Fake zu erkennen. Nun wird befürchtet, dass auf diese Art auch Rachepornos und Kinderpornografie entstehen könnte. Einige Fake-Pornos sind bereits auf einschlägigen Seiten aufgetaucht, die sie als echte Aufnahmen von Prominenten ausgeben. (red, 26.1.2018)

Print Friendly, PDF & Email