Bumble gibt sein KI-Tool zur Erkennung von Nacktbildern für Dritte frei
Bumble hat seinen Private Detector, ein KI-Tool zur automatischen Erkennung von Nacktbildern, in einer Open-Source-Variante bei GitHub veröffentlicht. Wer ausreichend technisch versiert ist, kann das offene Tool natürlich abwandeln, sodass auch andere Arten von Fotos erkannt werden könnten.
Bumble selbst nutzt den Private Detector, um damit Nacktfotos zu erkennen und automatisch zu verwischen. Das soll die Empfänger davor schützen, ungewollt mit nackten Tatsachen bombardiert zu werden. Wer das Foto dann doch sehen möchte, kann es per Knopfdruck freischalten – oder eine Meldung machen, wenn es ungewollt übersendet worden ist. Durch die Freigabe erhofft sich Bumble nach eigenen Angaben, dass die Community den Private Detector breiter adoptiert und nutzt, um das Internet sicherer zu machen.
Zu Bumble Inc. gehört nicht nur Bumble – auch Badoo und Fruitz sind Teil des Unternehmens. Daher kommt der Private Detector auch bei Badoo zum Einsatz. Es sei aber an der Zeit, unerwünschten Nacktfotos über die eigenen Plattformen hinaus den Kampf anzusagen. Daher der Open-Source-Schritt. Sogenanntes Cyberflashing sei für viele Menschen auf Partnersuche ein Ärgernis. Hier sei Machine Learning, eine Basis des Private Detectors, eben ein Weg, um automatisiert einen sinnvollen Schutz aufzubauen.
Wichtig sei dabei natürlich das korrekte Training, schließlich solle der Private Detector etwa nicht irrtümlich Arme, Beine, den Kopf und Co. als anstößige Bilder vermelden. Aktuell komme man da bei der Erkennung auf eine Genauigkeit von 98 %. Veröffentlicht hat man im Grunde nun den Quellcode, der genutzt worden ist, um den hauseigenen Private Detector zu trainieren. Mit dabei ist ein SavedModel, das direkt implementiert werden könnte. Zudem gibt es einen Checkpoint, ab dem weiteres Finetuning erfolgen könnte. Das kann sinnig sein, wenn es um spezifischere Anwendungsfälle geht.
Im Repository ist auch eine Dokumentation zu finden. Ein Guide soll ebenfalls unterstützen. Die freie Version des Private Detectors läuft unter der Apache License. Wer damit hantieren möchte, kann das Tool, so wie es jetzt ist, zur Erkennung anstößiger Fotos verwenden oder eben ein neues Training vornehmen, um andere Aufnahmen zu erkennen.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Die 2020er fühlen sich für mich immer mehr wie die 1950er an.
Als wenn in allen Bereichen die gesellschaftliche Entwicklung rückläufig wäre.
Erstaundlich.