Meta: Oversight Board fordert genauere Regeln für sexuelle Deepfakes
Das Oversight Board von Meta ist eine Einrichtung von Meta, die zur Selbstregulierung dient. Das Board setzt sich aus verschiedenen Mitgliedern zusammen, die z. B. aus der Forschung oder Non-Profit-Organisationen stammen. In einer neuen Entscheidung, die sich um Deepfakes mit sexuellen Inhalten dreht, fordert man von Meta ein schärferes bzw. genaueres Vorgehen.
In zwei Fällen hätten etwa KI-Bilder von Frauen aus dem öffentlichen Leben in Indien und den Vereinigten Staaten entfernt werden müssen. Sexuell geprägte Deepfakes würden überproportional Frauen und Mädchen treffen. Ohne ihr Einverständnis künstlich erzeugte KI-Bilder mit sexuellen Darstellungen seien schädlich und Meta sei in der Pflicht, diese Art von Inhalten deutlicher zu regulieren. Es müsse etwa einfacher sein, solche Darstellungen zu melden und entfernen zu lassen.
In den erwähnten, beispielhaften Fällen wurden zwei Frauen aus dem öffentlichen Leben in KI-Bildern nackt gezeigt. Die indische Frau meldete das Bild, das auf Instagram kursierte als pornografische Darstellung, da die Meldung aber nicht innerhalb von 48 Stunden bearbeitet werden konnte, wurde sie automatisch geschlossen. Auch ein Widerspruch wurde später automatisch geschlossen. Am Ende reichte die Frau die Beschwerde an das Oversight Board, das entschieden hat, Meta hätte das Bild entfernen müssen, da es gegen die Community-Richtlinien verstößt.
Oversight Board fordert von Meta klarere Formulierungen
Das Oversight Board regt Meta auch dazu an, einige Formulierungen in den Richtlinien anzupassen. Etwa verbietet man seitens Meta mit Photoshop in abwertender Weise bearbeitete Bilder. Solche Formulierungen würden aber den aktuellen KI-Möglichkeiten nicht mehr gerecht. Es sollte daher spezifiziert werden, dass allgemeine Bearbeitungen oder Erstellungen von sexuellen Bildinhalten ohne Zustimmung untersagt sind. Auch sollte Meta solche Fälle nach Urteil des Boards als Teile des „Adult Sexual Exploitation Community Standards betrachten und nicht unter „Bullying and Harassment“ einsortieren.
Denn teilweise würden solche sexuellen Darstellungen z. B. auch eingesetzt, um User auf externe Seiten zu locken, sie dienten also nicht unbedingt dem Zweck des Mobbings. Das Oversight Board hält auch eine Benennung dieser Kategorie als „Non-Consensual Sexual Content“ für sinnvoll. Überdies macht man sich Sorgen um Metas Strategie, manche Meldungen automatisch nach 48 Stunden zu schließen.
Generell wird es in diesem Bezug sicherlich noch viele Probleme geben, denn generative KI öffnet solchen Darstellungen mittlerweile Tür und Tor.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Ein vielfältiges Thema. So ein riesiges Netzwerk wie Facebook mit angeblich grob 1 Mrd. Nutzern lässt sich nicht kontrollieren, genauso wenig wie alle diese Menschen im echten Leben. Und es kostet Geld, was kein Unternehmen gerne ausgibt. Selbst wenn es genug Mitarbeiter gibt, dann bekommen die irgendetwas hingeknallt und müssen erstmal den Kontext einordnen – und das in unzähligen Sprachen.
Andererseits sind es dieselben Unternehmen – wie Meta – die so viel von „KI“ schwärmen und diese einsetzen: warum dann nicht alle Nacktfotos mit zuviel Haut blocken und nach Prüfung freigeben, oder eben auch nicht prüfen und nicht veröffentlichen?
Währenddessen macht sich der kleine Nutzer Sorgen, dass wegen eines Nacktfotos seiner Freundin sein Microsoft-OneDrive mit allem, was daran hängt, gesperrt wird – auf seinem ach so privaten, angeblich verschlüsseltem Online-Laufwerk…
Die einzig korrekte Regel heißt:
Gar keine Deepfakes erlauben.
Steckt schon im Wort: Fake.