Facebook erntet Kritik für den Umgang mit Fotos von möglichem Kindesmissbrauch
Dass Facebook für seine Moderation in die Kritik gerät, ist nichts Neues. So ist manchmal schwer durchschaubar, wann das soziale Netzwerk Inhalte entfernt oder stehenlässt. Beispielsweise habe ich die Erfahrung gemacht, dass man Stunden damit verbringen könnte, Fake-Profile zu melden, die einen in „WhatsApp-Gruppen für Erwachsene“ einladen wollen – Facebook antwortet auf Melde-Versuche dennoch regelmäßig damit, dass das jeweilige Profil völlig in Ordnung sei. Doch es gibt auch dunklere Abgründe: etwa den Kindesmissbrauch. Und hier werfen Mitarbeiter Facebook laut The New York Times einen falschen Umgang vor.
So sollen natürlich Bilder und Videos entfernt werden, die sexuellen Missbrauch an Kindern und Jugendlichen zeigen. Generell duldet Facebook keine freizügigen, sexuellen Darstellungen – auch nicht von Erwachsenen. Allerdings ist Facebook im Falle der Abbildung sexueller Handlungen an Kindern verpflichtet, dies den Behörden bzw. in den USA dem National Center for Missing and Exploited Children (NCMEC) zu melden. Dann werden die Inhalte an die Strafverfolgung übermittelt. Doch es tauchen manchmal natürlich Bilder auf, bei denen schwer einzuschätzen ist, ob die zu sehenden Personen bereits volljährig oder noch minderjährig sind.
Wie nun die New York Times berichtet, seien die Moderatoren Facebooks in solchen Grenzfällen grundsätzlich angewiesen, von einem Erwachsenen auszugehen. Dann werden die Inhalte nicht dem NCMEC gemeldet, sondern einfach nur ohne weitere Konsequenzen entfernt. Dies mache wiederum einigen Mitarbeitern Bauchschmerzen. Denn diese vermuten, dass durch jenen Umgang Bilder von Jugendlichen durchrutschen, die noch minderjährig sind.
Problematisch ist daran auch, dass Facebook viele Moderatoren nicht intern, sondern bei externen Partnerfirmen beschäftigt. Die Mitarbeiter handeln dort unter enormem Zeitdruck und sollen in wenigen Sekunden die Bilder einordnen. Entscheiden sie sich falsch, kann das auch für sie Konsequenzen haben. Facebook argumentiert, man verfahre so, da man generell die Privatsphäre der Nutzer schützen müsse und Falschmeldungen vermeiden wolle, welche die Behörden dann überfluten und an echten Ermittlungen hindern könnten.
Facebooks Leiterin der Sicherheit, Antigone Davis, erklärte, Facebook könnte zudem haftbar sein, wenn man falsche Inhalte melde. Zu erwähnen ist aber, dass es auch andere Perspektiven gibt. Apple, Snap und TikTok etwa gehen genau andersherum vor und melden bei unklarem Alter lieber aus Vorsicht strittige Darstellungen. Sicherlich eine Gratwanderung, um die ich vor allem die Moderatoren nicht beneide.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
se*ualisierte Gewalt an Kindern