Europol warnt vor Zunahme von KI-generierten Bildern, die Kindesmissbrauch zeigen

Die Polizeibehörde der Europäischen Union, Europol, warnt vor einer steigenden Anzahl an Bildern, die sexuellem Kindesmissbrauch darstellen, welche mit künstlicher Intelligenz erstellt wurden und online im Umlauf sind.

Die in Den Haag ansässige Behörde warnt im Rahmen eines 37-seitigen Berichts davor, dass künstliche Intelligenz bzw. Deepfakes es Sexualstraftätern ermöglichen, Material von Kindesmissbrauch zu erstellen oder zu verändern. Dies wird sich in Zukunft wohl noch weiter ausbreiten. Die Zunahme von KI-generierten Bildern erschwert zudem die Identifizierung von Opfern aus dem wirklichen Leben. Auch rein KI-generiertes Material über Kindesmissbrauch trage, so Europol, zur Objektivierung sowie Sexualisierung von Kindern bei.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Baujahr 1995. Technophiler Schwabe & Lehrer. Unterwegs vor allem im Bereich Smart Home und ständig auf der Suche nach neuen Gadgets & Technik-Trends aus Fernost. X; Threads; LinkedIn. Mail: felix@caschys.blog

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

15 Kommentare

  1. Opa Renate says:

    Vielleicht eine unpopuläre Meinung, aber ich würde solche KOMPLETT VON DER KI-ERSTELTEN Videos fördern. Wenn dadurch weniger Kinder real zu schaden kommen, weil die „Konsumenten“ darauf zurückgreifen, gibt es sicherlich schlimmeres.

    Man müsste natürlich vorher untersuchen, ob das eventuell psychologisch zu einer niedrigeren Eintrittshürde oder Verharmllosung für „Konsumenten“ führt. Falls nicht, sollte man, in welcher Form auch immer, drüber nachdenken.

    Eine Freundin von mir arbeitet beim Jugendamt und was sie berichtet ist wirklich schlimm.

    • Digital Native says:

      Den Gedanken hatte ich auch gerade. Man könnte dem etwas positives abgewinnen. Nur die Folgen sind halt unklar.

    • Müsste man sachlich diskutieren. Ist aber eine Pro/Contra-Frage. Verhindern KI generierte Bilder einen möglichen Übergriff, oder fördern sie diese. Und zum anderen wer kontrolliert was real und was generiert ist.

    • Tatsächlich war das auch mein erster Gedanke. Ich habe fast 10 Jahre in der Täterarbeit gearbeitet und arbeite jetzt 7 Jahre im Kinder- und Jugendbereich.

    • Tatsächlich gingen meine ersten Gedanken in die gleiche Richtung – besser KI generiert als dafür echte Kinder missbrauchen…
      ohne Zweifel wäre gar nicht natürlich die beste Alternative!

    • Also quasi als Methadon-Programm für Süchtige?

    • das andere ist das es mehr psychologische Anlaufstellen braucht damit diese Leute sich behandeln lassen können.

  2. Ich denke, dass das Problem bei dieser Annahme beginnt: „Wenn dadurch weniger Kinder real zu schaden kommen […]“. Denn diese KI-generierten Inhalte tragen sicherlich zur Objektivierung bei. Es liegt nahe, dass ein potentieller Täter durch den Konsum solcher Inhalte Hunger auf mehr bekommt und irgendwann zur Tat schreiten möchte. Ein altbekannter Mechanismus: „Wenn die Lust auf diese Weise schwanger geworden ist, bringt sie Sünde zur Welt, und die Sünde, wenn sie voll ausgewachsen ist, den Tod.“ (Bibel, Jakobusbrief)

    • > Hunger auf mehr bekommt und irgendwann zur Tat schreiten möchte

      Das Happy End wäre, wenn sie dann zu KI-Experten werden…

    • Das Problem beginnt bei der Annahme der Unterstellung das Handlung x ja immer dazu führt das Handlung y zwangsläufig ausgeführt wird.

      – wer Shooter spielt wird später echte Menschen töten
      – wer dampft wird später zur Zigarette greifen
      – wer kifft wird später an der Nadel hängen
      – usw.

      Studien und langjährige Untersuchungen zeigen in der Regel das diese Annahmen in der Regel unsinnig sind.

      Denn wenn wir diesem Muster folgen würden, würde ich Europol Interessenskonflikte unterstellen.
      Der Wechsel zu AI generierten Inhalten führt dazu das ein Kernargument zur anlasslosen Massenüberwachung der Bürger wertlos wird.
      Wie soll Europol ihre Chatkontrolle bekommen wenn es nicht um Inhalte mit echten Menschen geht?
      Denn Gerichte unterscheiden deutlich zwischen realer Straftat und moralisch fragwürdig.

      Die Überschrift könnte auch lauten: Europol warnt vor Verlust von Totschlagargument der Massenüberwachung
      – denkt doch an die Arbeitsplätze!

    • Die Annahme, dass fiktive Inhalte zwangsläufig zu realen Taten führen, vereinfacht komplexe menschliche Verhaltensweisen. „Richtet nicht, damit ihr nicht gerichtet werdet.“ (Matthäus 7,1-2)

    • Mit dem Gucken von Pornos bekommt man Lust auf echten Sex und pubertierende Kinder sind da ein viel leichteres Opfer, als Erwachsene. Deshalb sehe ich das leider genauso.

  3. „Die Gedanken sind frei…“
    Meiner Meinung nach muss es um die Frage gehen, ob auch strafbar sein kann, was nicht offensichtlich Dritten schadet. Das müsste zumindest ziemlich eindeutig nachgewiesen werden. Andernfalls wären ja auch Literatur oder Gemälde, die strafbare Handlungen (!) zum Thema haben, strafbar. Ich neige eher gegen eine so weitreichende Befugnis öffentlicher Gewalt.

  4. BigBlue007 says:

    Unabhängig davon, was man von der Idee hält, beweist das Ganze schon jetzt, dass sämtliche Beteuerungen der Anbieter, dass man alles tun wird, dass KI nur Gutes für den Menschen tut, in die Tonne kloppen kann. Was natürlich auch immer schon klar war. So wie mit allem anderen auch, wird der Mensch auch KI für jede irgendwie denkbare Abartigkeit nutzen. So wie wir es bisher auch schon mit allem gemacht haben, was so erfunden wurde. Der Unterschied ist, dass Meier/Müller/Lehmann nicht mal eben eine Atombombe in der Küche zusammenbasteln können, aber mit KI kann sich jeder Horst und jede Hörstin nach Belieben austoben.

  5. Mal sehen, wann die ersten Google/Apple Warnungen and die Behörden gehen, mit vermeintlichen Treffern bei den Kunden.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.