Google verstärkt Kampf gegen nicht-einvernehmliche intime Bilder

Google hat eine neue Partnerschaft mit StopNCII.org bekannt gegeben, um Menschen vor der Verbreitung nicht-einvernehmlicher intimer Bilder (NCII) in der Google-Suche zu schützen. Die britische Organisation StopNCII.org unterstützt Betroffene bereits seit längerem bei diesem Thema.
In den kommenden Monaten wird Google die Hash-Werte von StopNCII nutzen, um problematische Inhalte proaktiv zu erkennen und zu entfernen. Diese digitalen Fingerabdrücke von Bildern und Videos ermöglichen es, entsprechende Inhalte automatisch zu identifizieren, ohne dass die Original-Dateien gespeichert werden müssen.
Erwachsene Nutzer können über StopNCII.org für ihre privaten Aufnahmen solche Hash-Werte erstellen lassen. Diese werden dann an teilnehmende Unternehmen weitergegeben, die damit verdächtige Inhalte auf ihren Plattformen aufspüren und entfernen können. Sprich: Revenge Porn und so soll der Wind aus den Segeln genommen werden.
Google hatte bereits in der Vergangenheit Werkzeuge entwickelt, mit denen Betroffene die Entfernung von NCII-Material aus den Suchergebnissen beantragen konnten. Auch das Ranking wurde angepasst, um die Sichtbarkeit solcher Inhalte zu reduzieren. Die neue Kooperation soll diese Bemühungen nun deutlich ausweiten.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Die Anwendung ist richtig und wichtig. Interessant ist aber, wie sich die technologischen Möglichkeiten, je nach Anwendung verändern: beim Training von KI Modellen, wird von Firmen immer wieder behauptet, dass sich frei verfügbare urheberrechtliche geschützte Werke nicht herausfiltern ließen. Dabei sollte genau diese Technik, die hier beschrieben wird das möglich machen.
Technisch wahrscheinlich ja, aber wie sieht das in der praktischen Umsetzung aus? Wie weise ich denn nach, dass Bilder von mir nicht einvernehmlich entstanden sind?
Na gar nicht. Also es gibt ja niemanden, der sich ein recht erstreiten könnte, intime Bilder in einer Google Bildersuche verfügbar zu machen.
Insofern ist das auch kein Problem, wenn du da ich sag mal falsches Zeugnis ablegst über das Zustandekommen des Bildmaterials. Wer würde dir schon widersprechen? Google sicherlich nicht. 😀
So abwegig erscheint mir das nicht. Keine Ahnung ob eine KI unterscheiden kann, ob Nacktbilder einvernehmlich entstanden sind oder nicht, aber es gibt eine komplette Industrie, die mit einvernehmlichen Bildern ihr Geld verdient. Wenn man da unliebsame Konkurrenz einfach so aus dem Google-Index entfernen kann, wird das auch irgendwer machen.
Wie so oft ist das wohl eine Sache von Wollen und nicht von Können …
So oft wird von Unternehmen behauptet, man könne nicht …
Ganz einfach, Suchmaschinen sollen grundsätzlich keine nackt/ pornografische Inhalte indexieren/ ausgeben. Wer Porn konsumieren möchte soll die entsprechenden Plattformen direkt ansurfen müssen und erst nach Login Inhalte betrachten können. Die Plattformbetreiber sollen gesetzlich verpflichtet sein gemeldete Inhalte zu entfernen und so zu Indexieren, dass sie nicht erneut gepostet werden können.
Okay? Und als Nächstes werden dann keine Inhalte mehr indexiert die Medien für Erwachsene anbieten (also jeder Streamingdienst, Steam usw.)?
Wie Max schon sagt. Erwachsenenunterhaltung ist haram; entsprechende Literatur muss verbrannt werden! … oder zumindest geächtet werden. Denn es ist schlimm! Schlimm!! 😉