Europol warnt vor Zunahme von KI-generierten Bildern, die Kindesmissbrauch zeigen
Die Polizeibehörde der Europäischen Union, Europol, warnt vor einer steigenden Anzahl an Bildern, die sexuellem Kindesmissbrauch darstellen, welche mit künstlicher Intelligenz erstellt wurden und online im Umlauf sind.
Die in Den Haag ansässige Behörde warnt im Rahmen eines 37-seitigen Berichts davor, dass künstliche Intelligenz bzw. Deepfakes es Sexualstraftätern ermöglichen, Material von Kindesmissbrauch zu erstellen oder zu verändern. Dies wird sich in Zukunft wohl noch weiter ausbreiten. Die Zunahme von KI-generierten Bildern erschwert zudem die Identifizierung von Opfern aus dem wirklichen Leben. Auch rein KI-generiertes Material über Kindesmissbrauch trage, so Europol, zur Objektivierung sowie Sexualisierung von Kindern bei.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Vielleicht eine unpopuläre Meinung, aber ich würde solche KOMPLETT VON DER KI-ERSTELTEN Videos fördern. Wenn dadurch weniger Kinder real zu schaden kommen, weil die „Konsumenten“ darauf zurückgreifen, gibt es sicherlich schlimmeres.
Man müsste natürlich vorher untersuchen, ob das eventuell psychologisch zu einer niedrigeren Eintrittshürde oder Verharmllosung für „Konsumenten“ führt. Falls nicht, sollte man, in welcher Form auch immer, drüber nachdenken.
Eine Freundin von mir arbeitet beim Jugendamt und was sie berichtet ist wirklich schlimm.
Den Gedanken hatte ich auch gerade. Man könnte dem etwas positives abgewinnen. Nur die Folgen sind halt unklar.
Müsste man sachlich diskutieren. Ist aber eine Pro/Contra-Frage. Verhindern KI generierte Bilder einen möglichen Übergriff, oder fördern sie diese. Und zum anderen wer kontrolliert was real und was generiert ist.
Tatsächlich war das auch mein erster Gedanke. Ich habe fast 10 Jahre in der Täterarbeit gearbeitet und arbeite jetzt 7 Jahre im Kinder- und Jugendbereich.
Tatsächlich gingen meine ersten Gedanken in die gleiche Richtung – besser KI generiert als dafür echte Kinder missbrauchen…
ohne Zweifel wäre gar nicht natürlich die beste Alternative!
Also quasi als Methadon-Programm für Süchtige?
das andere ist das es mehr psychologische Anlaufstellen braucht damit diese Leute sich behandeln lassen können.
Wohin die Reise bei KI gehen könnte , gerade was diesen Bereich des Kindesmissbrauch angeht , sieht man im Ansatz in den Film „The Artifice Girl“ https://de.wikipedia.org/wiki/The_Artifice_Girl_%E2%80%93_Sie_ist_nicht_real
Ob man solche Methoden gutfindet muss jeder für sich selbst entscheiden
Ich denke, dass das Problem bei dieser Annahme beginnt: „Wenn dadurch weniger Kinder real zu schaden kommen […]“. Denn diese KI-generierten Inhalte tragen sicherlich zur Objektivierung bei. Es liegt nahe, dass ein potentieller Täter durch den Konsum solcher Inhalte Hunger auf mehr bekommt und irgendwann zur Tat schreiten möchte. Ein altbekannter Mechanismus: „Wenn die Lust auf diese Weise schwanger geworden ist, bringt sie Sünde zur Welt, und die Sünde, wenn sie voll ausgewachsen ist, den Tod.“ (Bibel, Jakobusbrief)
> Hunger auf mehr bekommt und irgendwann zur Tat schreiten möchte
Das Happy End wäre, wenn sie dann zu KI-Experten werden…
Das Problem beginnt bei der Annahme der Unterstellung das Handlung x ja immer dazu führt das Handlung y zwangsläufig ausgeführt wird.
– wer Shooter spielt wird später echte Menschen töten
– wer dampft wird später zur Zigarette greifen
– wer kifft wird später an der Nadel hängen
– usw.
Studien und langjährige Untersuchungen zeigen in der Regel das diese Annahmen in der Regel unsinnig sind.
Denn wenn wir diesem Muster folgen würden, würde ich Europol Interessenskonflikte unterstellen.
Der Wechsel zu AI generierten Inhalten führt dazu das ein Kernargument zur anlasslosen Massenüberwachung der Bürger wertlos wird.
Wie soll Europol ihre Chatkontrolle bekommen wenn es nicht um Inhalte mit echten Menschen geht?
Denn Gerichte unterscheiden deutlich zwischen realer Straftat und moralisch fragwürdig.
Die Überschrift könnte auch lauten: Europol warnt vor Verlust von Totschlagargument der Massenüberwachung
– denkt doch an die Arbeitsplätze!
„Das Problem beginnt bei der Annahme der Unterstellung das Handlung x ja immer dazu führt das Handlung y zwangsläufig ausgeführt wird.“
Diese Unterstellung kommt jetzt aber von Dir.
Und: nicht zwangsläufig, aber wahrscheinlicher. Es gibt nicht nur entweder/oder.
„Studien und langjährige Untersuchungen zeigen in der Regel das diese Annahmen in der Regel unsinnig sind.“
Es gibt Studien zu allem und mit allen gewünschten Ergebnissen.
Im wirklichen Leben kenne und kannte ich aber genug Leute, bei denen z. B. die Suchtkarriere so verlief, während andere bei allem clean bleiben.
Die Annahme, dass fiktive Inhalte zwangsläufig zu realen Taten führen, vereinfacht komplexe menschliche Verhaltensweisen. „Richtet nicht, damit ihr nicht gerichtet werdet.“ (Matthäus 7,1-2)
Mit dem Gucken von Pornos bekommt man Lust auf echten Sex und pubertierende Kinder sind da ein viel leichteres Opfer, als Erwachsene. Deshalb sehe ich das leider genauso.
Da gibt es aber überwiegend eine andere Meinung, die besagt das der Konsum von Pornos überwiegend die Lust auf reale Zweisamkeit reduziert, da diese typischerweise nicht an die gespielte Darstellung heranreicht. Dies ist ein oftmals verwendetes Argument für das Verbot / der Einschränkung der Verfügbarkeit von Pornos.
„Die Gedanken sind frei…“
Meiner Meinung nach muss es um die Frage gehen, ob auch strafbar sein kann, was nicht offensichtlich Dritten schadet. Das müsste zumindest ziemlich eindeutig nachgewiesen werden. Andernfalls wären ja auch Literatur oder Gemälde, die strafbare Handlungen (!) zum Thema haben, strafbar. Ich neige eher gegen eine so weitreichende Befugnis öffentlicher Gewalt.
Unabhängig davon, was man von der Idee hält, beweist das Ganze schon jetzt, dass sämtliche Beteuerungen der Anbieter, dass man alles tun wird, dass KI nur Gutes für den Menschen tut, in die Tonne kloppen kann. Was natürlich auch immer schon klar war. So wie mit allem anderen auch, wird der Mensch auch KI für jede irgendwie denkbare Abartigkeit nutzen. So wie wir es bisher auch schon mit allem gemacht haben, was so erfunden wurde. Der Unterschied ist, dass Meier/Müller/Lehmann nicht mal eben eine Atombombe in der Küche zusammenbasteln können, aber mit KI kann sich jeder Horst und jede Hörstin nach Belieben austoben.
Mal sehen, wann die ersten Google/Apple Warnungen and die Behörden gehen, mit vermeintlichen Treffern bei den Kunden.
Dann greifen die Behörden zu und finden echte Fotos.
Win-win.