Google unterstützt Forschung zur Entlarvung von Deepfakes

Mit modernen Algorithmen und künstlicher Intelligenz lassen sich viele tolle Sachen anstellen – siehe etwa die Features, welche Smartphone-Hersteller mittlerweile zur Verbesserung der Foto-Qualität verwenden und damit mehr als beeindruckende Ergebnisse erzielen. Doch wo Licht ist, ist auch Schatten: Als Folge von Deep Learning sind auch die sogenannten Deepfakes entstanden. Dabei handelt es sich um manipulierte Videos, die viel Schaden anrichten können. Google will die Entlarvung von Deepfakes nun fördern.

Was ist ein Deepfake? Nun ihr kennt sie, diese Videos, wo z. B. Gesichter ausgetauscht wurden und ein bestimmter Schauspieler plötzlich aussieht wie ein völlig anderer Darsteller. Manche Ergebnisse sind erschreckend realistisch. Die meisten Deepfakes sind reine Gags und als harmloser Humor zu betrachten. Brisanter wird es aber, wenn etwa das Gesicht einer bekannten Schauspielerin in einen Pornofilm eingesetzt wird. Oder genau das vielleicht mit euch selbst oder eurer Freundin passiert, weil irgendein Ex Spaß an solchen Schikanen findet.

Das ist eben wie mit allen mächtigen Technologien: Wo viel Potenzial ist, ist eben auch viel Missbrauchspotenzial. Dessen ist man sich auch bei Google bewusst. In Kooperation mit Jigaw hat man eine riesiges Dataset von visuellen Deepfakes an die Technische Universität München sowie die University Federico II of Naples weitergeleitet, damit sie jenes für ihr FaceForensics Benchmark als Grundlage verwenden können. Google agiert da auch als Sponsor.

Sogar ihr könnt euch die Daten mal ansehen, denn sie stehen öffentlich auf der Github-Seite von FaceForensics zum Download zur Verfügung. Um das Dataset zu erstellen, hat Google Schauspieler verpflichtet, die freiwillig mit dem Unternehmen an Deepfakes gearbeitet haben – zu Analysezwecken. Gemeinsam erstellte man mit verbreiteter Software tausende solcher Videos. Sowohl die echten als auch die gefälschten Videos können nun für FaceForensics als Basis dienen, um die Erkennung von Deepfakes zu verbessern.

Da die Daten öffentlich zur Verfügung stehen, profitieren vielleicht aber auch andere Sicherheitsforscher davon. Google will die Datenbestände auf Zeit auch noch erweitern, um die Forschung weiter zu fördern. Laut Google sei es wichtig, gegen Audio-, Bild- und Videomanipulationen vorzugehen und die Erkennung von möglicherweise irreführenden und schädlichen Inhalten zu verbessern. Deswegen will sich das Unternehmen da auch in Zukunft weiter engagieren.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hauptberuflich hilfsbereiter Technik-, Games- und Serien-Geek. Nebenbei Doc in Medienpädagogik und Möchtegern-Schriftsteller. Hofft heimlich eines Tages als Ghostbuster sein Geld zu verdienen oder zumindest das erste Proton Pack der Welt zu testen. Mit geheimniskrämerischem Konto auch bei Facebook zu finden.

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.
Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.