Die nackten Schattenseiten von KI: Manipulierter Revengeporn
Künstliche Intelligenz ist neutral gesehen erst einmal eine feine Sache. Technik ist grundsätzlich weder „Gut“ noch „Böse“. Es kommt darauf an, was man draus macht. Das ist wie mit einem Messer: Man kann damit zwar auch jemanden umbringen, aber wahrscheinlicher ist, dass man sich damit ein Brot schmiert, Pakete öffnet oder vielleicht sogar Kunstwerke schnitzt. In dieser Woche allerdings häuften sich Berichte zu vermehrtem Missbrauch von KI: User kreierten gefälschte Pornofilme, indem sie Gesichter von Prominenten mit KI-Tools über die Gesichter von Pornostars legten.
Aus Jugendschutzgründen verlinke ich es hier nicht, aber in einem Subreddit namens Deepfakes sammelte sich eine schnell wachsende Community, die ihren Spaß an den Manipulationen hatte. Den Humor verstehe ich, auch wenn der gute Geschmack dabei natürlich flöten geht. Nun könnte man einwenden: „Na ja, wem stehen denn schon die nötigen Tools zur Verfügung, um solche Manipulationen durchzuführen?“ Tatsächlich gibt es aber eine kostenlose App namens FakeApp, welche sich wachsender Beliebtheit erfreut.
Nun sind Prominente in der Regel sowieso nicht vor derlei Machenschaften gefeit und haben sich ein Stück weit damit abgefunden. Wer Namen von Stars wie Scarlett Johansson und Co. eingibt, stößt rasch auf eine ganze Flut von abstrusen, gefälschten Nacktbildern – um ein Beispiel zu nennen. Das größere Problem dürfte sein, dass die User schnell auf die Idee gekommen sind, falsche Pornovideos von Personen aus ihrem Bekanntenkreis zu erstellen. Ein User etwa rühmte sich ein „ziemlich gutes“, gefälschtes Erotikvideo von einer ehemaligen Mitschülerin erstellt zu haben. Dafür klaubte er sich einfach 380 Bilder aus ihren Facebook- und Instagram-Konten zusammen.
Auf Reddit tauchten die Anwender schließlich Tipps aus, wie man möglichst effizient Revengeporn-Videos von Exfreunden, Schwärmen und anderen Personen aus dem Bekanntenkreis erstellen könnte. Ein eher harmloses Ergebnis seht ihr oben – eine Szene aus „Man of Steel“ in der das Gesicht von Amy Adams durch Nicolas Cage ersetzt wurde. Klar, das sieht nicht zu 100 % realistisch aus, aber doch sehr beeindruckend für den geringen Aufwand.
Die Plattform Discord, bei der es Chatrooms zu Deepfake-Pornos gab, hat die entsprechenden Diskussionen mittlerweile unterbunden. Wer sich an den Gesprächen beteiligt bzw. die Chats eröffnet hatte, wurde der Plattform verwiesen. Trotzdem wird das Thema Deepfakes bzw. Fakeporn auch in Zukunft die Gemüter erhitzen. Über Tools wie den Instagram Scraper oder die Chrome-Extension DownAlbum ist es leichter denn je, Bilder anderer Leute in Massen herunterzuladen. Anschließend gilt es zwar noch die Gesichte auf passende Körper zu setzen, Tools automatisieren und vereinfachen dies aber zum Teil.
Zumal es dafür ebenfalls bereits Websites gibt, die ich hier namentlich nicht nennen möchte: Sie suchen zu einem hochgeladenen oder verlinkten Foto ein möglichst ähnliches Gesicht aus der Pornobranche heraus. Sollte man auf einen Porno mit dem eigenen, hineinmontierten Gesicht stoßen, kann man natürlich versuchen rechtlich dagegen vorzugehen. Die Rechtslage dürfte hier aber noch sehr unsicher sein, bzw. was man hier erreichen kann, ist wohl fraglich – wenn sich der Urheber eines solchen Videos überhaupt ausfindig machen lässt. Bliebe wohl in fielen Fällen nur sich juristisch mit der Plattform anzulegen, auf welcher das Video hochgeladen wurde. Was ein steiniger Weg für private User sein dürfte.
Was die Zukunft bringen wird? Bleibt zu hoffen, dass auch ein wenig gesunder Menschenverstand und moralisches Bewusstsein Einzug halten. Wer hätte schon Lust darauf, sich selbst in einem manipulierten Pornovideo zu erspähen? Daran sollte man als erstes denken, bevor man sich mit solchen Themen beschäftigt.
Hätte uns mal nur jemand gewarnt, dass wir nicht überall unsere Bilder rumzeigen sollen.
Ich rieche hier schon die Möglichkeit Face-ID zu umgehen.
Kommt ja noch hinzu dass es möglich geworden ist, Stimmen so nachzustellen, dass man zB. einen aufgezeichneten Clip einer Rede mit komplett anderen Sätzen wiedergeben kann. Soviel ich weiß dann auch noch zusätzlich mit anderen, dazu passenden Mundbewegungen. Da wird bald Facebook richtig was zu tun bekommen…
Ich kenn die macher schon von solchen Videos. Nenen sich BKA und klauen die Bilder von Whatsappchats…*lol*
Leider wird deine Hoffnung auf „gesunden Menschenverstand und moralisches Bewusstsein“ enttäuscht werden. Da bin ich mir ziemlich sicher. Ich bin froh, dass dieser ganze Facebook/Instagram-Mist an mir vorbei zieht. Es gibt so gut wie kein öffentlich zugängliches Foto von mir.
Sicher häufen sich wieder die Stimmen, die sagen: „Selber schuld, warum läd man auch Fotos von sich hoch“. Das ist schon richtig, aber letzten Endes sind es die Ersteller der Videos, die eine Straftat begehen, wenn sie gefakte Porno-Videos ins öffentliche Netz stellen. Dagegen gehört massiv vorgegangen. Nur durch fette Strafen wird ein Großteil der Nachahmer abgehalten. Appelle an die Vernunft verschallen dagegen ungehört. Leider.
Rigorose Strafen dürfen aber nicht die Lösungen sein, das ist typisch US-Denken, wo Gefängnisinsassen Millionenstädte füllen könnten. Zudem würde eine große Mehrheit mal wieder zum potentiellen Straftäter gemacht, nur weil ein winzige Minderheit keine Grenzen kennt.
Du müsstest bei Weitergabe einer Datei ja auch jedesmal zweifelsfrei nachweisen können dass du nicht selber der Urheber des Fakevideos bist, bzw erstmal überhaupt wissen, ob es ein Fake ist und eine Gefahr für dich besteht…
fielen
fielen fiel vielen wohl nicht auf, ist ja auch nicht tragisch…