Jugendschutz im Internet: Möglichkeiten zur Löschung sensibler Bilder
Das Internet vergisst nichts – dieser Satz kann für Betroffene von ungewollt veröffentlichten, intimen Aufnahmen zur psychischen Belastung werden. Mit dem kostenlosen Dienst „Take It Down“ gibt es eine Möglichkeit, gegen die Verbreitung sensibler Bilder und Videos vorzugehen, die im Jugendalter entstanden sind.
Die Initiative des National Center for Missing & Exploited Children richtet sich gezielt an Menschen, die als Minderjährige intime Aufnahmen von sich gemacht haben oder von denen solche Aufnahmen existieren. Der besondere Vorteil: Betroffene müssen die Bilder oder Videos nicht erneut teilen oder hochladen, um sie löschen zu lassen.
Die technische Umsetzung basiert auf einem digitalen Fingerabdruck-System. Jede Datei erhält einen einzigartigen Hash-Wert, der es den teilnehmenden Online-Plattformen ermöglicht, diese Inhalte zu identifizieren und zu entfernen. Der Prozess läuft vollständig anonymisiert ab, da nur der Hash-Wert und nicht das eigentliche Bild oder Video übermittelt wird.
Der Dienst kann auch präventiv genutzt werden, wenn die Befürchtung besteht, dass Aufnahmen in Zukunft veröffentlicht werden könnten. Dies ist besonders relevant bei Erpressungsversuchen oder wenn Bilder in die falschen Hände geraten sind.
Für Erwachsene, die von der ungewollten Veröffentlichung intimer Aufnahmen betroffen sind, existiert mit „stopncii.org“ eine alternative Anlaufstelle. Diese Plattform nutzt laut dem LKA Niedersachsen ein ähnliches System, ist aber auf Fälle ausgerichtet, bei denen die Aufnahmen nach dem 18. Lebensjahr entstanden sind.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Wie funktioniert das denn? Muss das Kind aktiv über den Dienst seine intimen Fotos veröffentlichen, so dass die Foto Infos, dort bekannt sind und die Websites dann eben gefunden und aufgefordert werden zu löschen?
Oder muss man, wenn die Bilder schon auch durch andere online gestellt sind, diesen Dienst informieren, und die schauen dann, dass die Fotos gelöscht werden? Das sind sinnvolle Infos, Jugendliche, die Streit mit ihren Klassenkameraden haben, haben viele Möglichkeiten ihre Kamerad/innen zu mobben, wenn dieser Dienst dem ganzen ein Riegel vorschieben kann, um so besser.
Da steht u.a.: „Das Ganze erfolgt, ohne dass das Bild oder Video … von jemandem angesehen wird. Nur der Hash-Wert wird an das NCMEC übermittelt.“
Aus technischer Sicht interessiert mich, wie sichergestellt wird, dass es sich wirklich um ein Bild mit entsprechendem Inhalt handelt (ohne dass es sich jemand anschaut). Man kann doch sicher auch ein den Hashwert eines ansonsten unbedenklichen Bildes übermitteln.
Ich habe das eben mal probiert und es akzeptiert jegliches Foto, man muss nur bestätigen, dass es „(teilweise) Nacktheit“ enthält oder „sexuell explizit“ ist, was an sich ja schon schwer zu definieren ist. Auch habe ich keinerlei rechtliche Infos / Nachteile finden können sollte man etwas übermitteln auf das dies nicht zutrifft, also man den Service eigentlich missbraucht.
Naja, mal schauen was passiert wenn ich dies in den nächsten Tagen auf einem neuen Insta-Account poste. Es machen ja sowieso nur 10 Anbieter mit und von dreien davon hab ich noch nie was gehört.
Mal abwarten ob mein per AI-generiertes Bild eines Weihnachtsbaums (oder heisst das heute Winterbaum?) dann auch schon gefiltert wird… ich werde natürlich auch mal testen ob eine geänderte Version des Bildes weiterhin funktioniert (also zuerst mal einen Ausschnitt des Originals, dann eines mit Schrift drauf, etc.) denn das hat dann natürlich andere Hashes.
Vor allem werden Bilder oft nicht 1:1 gespeichert, sondern konvertiert oder resampled. Hash ade. Ohne echten optischen Vergleich/Scan erscheint mir das wenig zielführend.
Wenn pHash / wHash sowie PhotoDNA-Hashes eingesetzt werden ist es sehr wohl möglich. Nur bei absoluten Hashes wie MD5, SHA256/512 wird es nur bei komplett Hash-identischen Dateien funktionieren
Ich hab mich mal ein bisschen schlauer gemacht und einen Thread auf HackerNews entdeckt in welchem einer der Entwickler einige Infos „leakt“; genutzt wird wohl ein perceptual hash aber da liegt noch so viel mehr im Argen, dass man nur mit dem Kopf schütteln kann.
Zitat: „The NCMEC database that Apple is likely using to match hashes, contains countless non-CSAM pictures that are entirely legal not only in the U.S. but globally.“ (Diese NCMEC DB steht auch hinter diesem Dienst hier.)
Und das ist ja klar, wenn jeder HansWurscht (wie ich oben z.B.) einfach Bilder hashen und den Hash dort eintragen kann. Anscheinend werden wohl auch automatisch **alle** bei Tätern gefundenen Bildern eingetragen, selbst von Räumen oder Aussenaufnahmen auf welchen nicht einmal Menschen abgebildet sind.
Und übrigens: nichts davon ist wirklich transparent, geschweige denn die DB mit Hashes. Und natürlich ist alles von der US-Regierung finanziert… naja, mal sehen wann die Diskussion rund um client-side scanning wieder losgeht, kann ja nicht mehr lange dauern.
„naja, mal sehen wann die Diskussion rund um client-side scanning wieder losgeht, kann ja nicht mehr lange dauern.“
Und zack, es war so vorhersehbar:
https://www.heise.de/news/Missbrauchsbilder-in-iCloud-US-Sammelklage-wirft-Apple-Untaetigkeit-vor-10193835.html
@Caschy, ich würde „sensitive“ mit „heikel“ übersetzen, sensibel sind die Bilder ja eher nicht.
„Jede Datei erhält einen einzigartigen Hash-Wert,…“
müsste das nicht eher heisen “ jede datei enthält einen einzigartigen hash-wert?“
Wie sollen denn bereits hochgeladene bilder jetzt einen hashwert erhalten?
Grast das System das Internet einfach ab und verpasst jedem gefundenen Bild einen wert?
Das wäre doch dann das gleiche Problem wie das ungefragte füttern von KI.