Bumble gibt sein KI-Tool zur Erkennung von Nacktbildern für Dritte frei

Bumble hat seinen Private Detector, ein KI-Tool zur automatischen Erkennung von Nacktbildern, in einer Open-Source-Variante bei GitHub veröffentlicht. Wer ausreichend technisch versiert ist, kann das offene Tool natürlich abwandeln, sodass auch andere Arten von Fotos erkannt werden könnten.

Bumble selbst nutzt den Private Detector, um damit Nacktfotos zu erkennen und automatisch zu verwischen. Das soll die Empfänger davor schützen, ungewollt mit nackten Tatsachen bombardiert zu werden. Wer das Foto dann doch sehen möchte, kann es per Knopfdruck freischalten – oder eine Meldung machen, wenn es ungewollt übersendet worden ist. Durch die Freigabe erhofft sich Bumble nach eigenen Angaben, dass die Community den Private Detector breiter adoptiert und nutzt, um das Internet sicherer zu machen.

Zu Bumble Inc. gehört nicht nur Bumble – auch Badoo und Fruitz sind Teil des Unternehmens. Daher kommt der Private Detector auch bei Badoo zum Einsatz. Es sei aber an der Zeit, unerwünschten Nacktfotos über die eigenen Plattformen hinaus den Kampf anzusagen. Daher der Open-Source-Schritt. Sogenanntes Cyberflashing sei für viele Menschen auf Partnersuche ein Ärgernis. Hier sei Machine Learning, eine Basis des Private Detectors, eben ein Weg, um automatisiert einen sinnvollen Schutz aufzubauen.

Wichtig sei dabei natürlich das korrekte Training, schließlich solle der Private Detector etwa nicht irrtümlich Arme, Beine, den Kopf und Co. als anstößige Bilder vermelden. Aktuell komme man da bei der Erkennung auf eine Genauigkeit von 98 %. Veröffentlicht hat man im Grunde nun den Quellcode, der genutzt worden ist, um den hauseigenen Private Detector zu trainieren. Mit dabei ist ein SavedModel, das direkt implementiert werden könnte. Zudem gibt es einen Checkpoint, ab dem weiteres Finetuning erfolgen könnte. Das kann sinnig sein, wenn es um spezifischere Anwendungsfälle geht.

Im Repository ist auch eine Dokumentation zu finden. Ein Guide soll ebenfalls unterstützen. Die freie Version des Private Detectors läuft unter der Apache License. Wer damit hantieren möchte, kann das Tool, so wie es jetzt ist, zur Erkennung anstößiger Fotos verwenden oder eben ein neues Training vornehmen, um andere Aufnahmen zu erkennen.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hauptberuflich hilfsbereiter Technik-, Games- und Serien-Geek. Nebenbei Doc in Medienpädagogik und Möchtegern-Schriftsteller. Hofft heimlich eines Tages als Ghostbuster sein Geld zu verdienen oder zumindest das erste Proton Pack der Welt zu testen. Mit geheimniskrämerischem Konto auch bei Facebook zu finden.

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

Ein Kommentar

  1. Die 2020er fühlen sich für mich immer mehr wie die 1950er an.
    Als wenn in allen Bereichen die gesellschaftliche Entwicklung rückläufig wäre.
    Erstaundlich.

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.