Meta stellt seine Kennzeichnungen für KI-generierte Inhalte vor
Meta hat seine Kennzeichnung von KI-generierten Bild-, Video- und Audioinhalten vorgestellt. Diese soll am Ende in den sozialen Netzwerken Facebook, Instagram und Threads greifen. Ziel ist es, Nutzern transparent aufzuzeigen, welche Inhalte mithilfe von KI erstellt worden sind. Das kann sowohl mit dem Meta AI Image Generator sowie weiteren Tools von Partnern geschehen sein.
In den nächsten Monaten wird entsprechender Content deutlich mit der Kennzeichnung „Imagined with AI“ versehen, was eine eher beschönigende bzw. leicht irreführende Formulierung ist, wenn ihr mich fragt, aber gut. Die Kennzeichnungen sollen nach entsprechender Identifizierung automatisch vorgenommen werden. Zudem können Nutzer manuell eine Kennzeichnung vornehmen.
Im Rahmen des Partnerships on AI arbeiten Meta gemeinsam mit Branchenpartnern an einheitlichen Standards für die Identifizierung KI-generierter Inhalte. Dazu werden Tools entwickelt, die unsichtbare Marker in großem Stil anhand der technischen Standards C2PA und IPTC erkennen. Somit können Inhalte anderer Anbieter wie Google, OpenAI, Microsoft, Adobe oder Shutterstock gleichermaßen identifiziert werden.
Da es derzeit aus technischer Sicht noch nicht möglich ist, wirklich alle KI-generierten Inhalte zuverlässig zu identifizieren, arbeitet das KI-Forschungslabor FAIR von Meta an der Weiterentwicklung der Technologie für unsichtbare Wasserzeichen. Ein Aspekt ist da auch Stable Signature, was eine Entfernung oder Veränderung dieser verhindern soll.
Meta: Probleme mit KI-Deepfakes bei Audio und Video
Allerdings mahnt Meta, dass es noch Probleme mit KI-generierten oder -manipulierten Audio- und Videodateien gebe. Hier würden oft durch die Anbieter der Tools keine Wasserzeichen gesetzt. Hier setzt man aber in seinen Richtlinien voraus, dass die Nutzer selbst ein klares Label vergeben. Wer das versäume, müsse auch mit Konsequenzen wie einer Sperre rechnen.
Am Ende sei das Ganze aber ein Katz-und-Maus-Spiel. Es gebe immer Parteien, die ein Interesse daran hätten, Falschinformationen zu verbreiten und die Menschen zu täuschen. Hier suche man nach Wegen, dem beizukommen. Nutzern rät man generell bei Audio und Video genauer hinzuschauen und die Quellen dahingehend zu prüfen, was sie im Allgemeinen so in sozialen Netzwerken veröffentlichen.
Vereinfach gesagt: Ein offizielles Konto der BBC wird weniger wahrscheinlich einen KI-Fake verbreiten als „Guru_Hackermaster_5000“, der bislang vor allem durch Verschwörungserzählungen aufgefallen ist.
- ⚡ 【HDMI 2.1 Kabel Zertifiziert Neueste Revolution 48Gbps 】 Das Highwings 8K HDMI Kabel 3meter 2.1...
- 📺【Echtes 8K-HDMI-2.1-Kabel】 – Dieses 8K-HDMI-Kabel nutzt die modernste Technologie, ist...
- 【Zertifiziertes HDMI 2.1 Kabel】UGREEN 8K HDMI Kabel verfügt über eine HDMI 2.1 Ultra High Speed...
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Schon mal ein wichtiger Schritt, wie ich finde. Bleibt dann spannend zu sehen, wie weit die Erkennung gehen kann. z.B. ob es noch erkannt wird, wenn nach der Generierung Veränderungen vorgenommen wurden.
> Es gebe immer Parteien, die ein Interesse daran hätten, Falschinformationen zu verbreiten und die Menschen zu täuschen.
Zumal es bequem ist, seine social-Media-Blase nicht zu verlassen. Man bekommt nur die Infos, die ins eigene Weltbild passen und einem genehm sind. So lassen sich die Leute besonders einfach manipulieren.
Ist das wirklich sinnvoll? Wenn jemand es wirklich drauf anlegt, benutzt er einfach einen Bildgenerator ohne Wasserzeichen oder Kennzeichnung.