Google unterstützt Forschung zur Entlarvung von Deepfakes

Mit modernen Algorithmen und künstlicher Intelligenz lassen sich viele tolle Sachen anstellen – siehe etwa die Features, welche Smartphone-Hersteller mittlerweile zur Verbesserung der Foto-Qualität verwenden und damit mehr als beeindruckende Ergebnisse erzielen. Doch wo Licht ist, ist auch Schatten: Als Folge von Deep Learning sind auch die sogenannten Deepfakes entstanden. Dabei handelt es sich um manipulierte Videos, die viel Schaden anrichten können. Google will die Entlarvung von Deepfakes nun fördern.

Was ist ein Deepfake? Nun ihr kennt sie, diese Videos, wo z. B. Gesichter ausgetauscht wurden und ein bestimmter Schauspieler plötzlich aussieht wie ein völlig anderer Darsteller. Manche Ergebnisse sind erschreckend realistisch. Die meisten Deepfakes sind reine Gags und als harmloser Humor zu betrachten. Brisanter wird es aber, wenn etwa das Gesicht einer bekannten Schauspielerin in einen Pornofilm eingesetzt wird. Oder genau das vielleicht mit euch selbst oder eurer Freundin passiert, weil irgendein Ex Spaß an solchen Schikanen findet.

Das ist eben wie mit allen mächtigen Technologien: Wo viel Potenzial ist, ist eben auch viel Missbrauchspotenzial. Dessen ist man sich auch bei Google bewusst. In Kooperation mit Jigaw hat man eine riesiges Dataset von visuellen Deepfakes an die Technische Universität München sowie die University Federico II of Naples weitergeleitet, damit sie jenes für ihr FaceForensics Benchmark als Grundlage verwenden können. Google agiert da auch als Sponsor.

Sogar ihr könnt euch die Daten mal ansehen, denn sie stehen öffentlich auf der Github-Seite von FaceForensics zum Download zur Verfügung. Um das Dataset zu erstellen, hat Google Schauspieler verpflichtet, die freiwillig mit dem Unternehmen an Deepfakes gearbeitet haben – zu Analysezwecken. Gemeinsam erstellte man mit verbreiteter Software tausende solcher Videos. Sowohl die echten als auch die gefälschten Videos können nun für FaceForensics als Basis dienen, um die Erkennung von Deepfakes zu verbessern.

Da die Daten öffentlich zur Verfügung stehen, profitieren vielleicht aber auch andere Sicherheitsforscher davon. Google will die Datenbestände auf Zeit auch noch erweitern, um die Forschung weiter zu fördern. Laut Google sei es wichtig, gegen Audio-, Bild- und Videomanipulationen vorzugehen und die Erkennung von möglicherweise irreführenden und schädlichen Inhalten zu verbessern. Deswegen will sich das Unternehmen da auch in Zukunft weiter engagieren.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

André Westphal

Hauptberuflich hilfsbereiter Technik-, Games- und Serien-Geek. Nebenbei Doc in Medienpädagogik und Möchtegern-Schriftsteller. Hofft heimlich eines Tages als Ghostbuster sein Geld zu verdienen oder zumindest das erste Proton Pack der Welt zu testen. Mit geheimniskrämerischem Konto auch bei Facebook zu finden. PayPal-Kaffeespende an den Autor.

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Du willst nichts verpassen?
Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren. Alternativ könnt ihr euch via E-Mail über alle neuen Beiträge hier im Blog informieren lassen. Einfach eure E-Mail-Adresse hier eingeben, dann bekommt ihr 1x täglich morgens eine Zusammenstellung. Mit dem Absenden willigst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.