Microsoft will mit automatischer Bilderkennung Kinderpornografie bekämpfen

Microsoft hat ein gemeinsames Forschungsprojekt mit dem Land NRW sowie der Zentral- und Ansprechstelle Cybercrime (ZAC NRW) am Laufen. Ziel ist es, zu testen, wie künstliche Intelligenz bei der Beweissicherung helfen kann. Ganz konkret soll es darum gehen kinderpornografisches Bildmaterial per KI auszuwerten. Da hier oft sehr umfangreiches Material bei mutmaßlichen Tätern gesichert wird, könnte eine KI-gestützte Auswertung die Prozesse der Beweissicherung deutlich beschleunigen.

Zumal die Tätigkeiten für Beamte oft psychisch sehr belastend sind, wenn sie sich kinderpornografisches Bildmaterial ansehen müssen. Somit würde die KI-Auswertung gleich eine Doppelfunktion erfüllen: Die Mitarbeiter der Polizei entlasten und das Verfahren beschleunigen. An dem Projekt sind als wissenschaftliche Berater auch Juristen und IT-Sicherheitsspezialisten der Universität des Saarlandes beteiligt.

Laut der polizeilichen Kriminalstatistik 2018 (PKS) zufolge stieg 2018 die Zahl der Straftaten im Bereich Kinderpornografie deutlich an: von 6.512 auf 7.449 Fälle. Auch die Zahl der bekannt gewordenen sexuellen Missbrauchsdelikte an Kindern steigt: bundesweit von 11.547 auf 12.321 Fälle. Gerade deswegen erachtet man eine effiziente Aufarbeitung der Straftaten als immer wichtiger. Denn leider wird die Aufklärung und Beweissicherung immer komplizierter. So werden oft große Mengen an Speichermedien sichergestellt und es müssen teilweise Millionen an Dateien geprüft werden. Dass dies mit manuellen Verfahren sehr zeitaufwändig ist, kann sich jeder ausmalen.

Der Leiter der ZAC NRW, Oberstaatsanwalt Markus Hartmann, erklärt, dass Zeit aber gerade ein wichtiger Faktor ist: „Die große Herausforderung ist, Datenträger zeitgerecht auszuwerten, da die Ermittlungsbehörden Beweismittel nicht unverhältnismäßig lange einbehalten dürfen. Andernfalls besteht das Risiko, dass Beweismittel herausgegeben werden müssen, bevor sicher festgestellt ist, ob kinderpornografisches Material auf ihnen enthalten ist.

Daraus ergibt sich eben der hohe Druck auf die Beamten: Sie müssen unter Zeitdruck Material sichten, das einen enormen Stresslevel bedingt, weil man sich solchen Inhalten nicht gerne aussetzen will. Microsoft will da Abhilfe schaffen, indem man Algorithmen auf der Basis neuronaler Netze zur Dekonstruktion (Anonymisierung und Abstraktion) von Bilddateien und intelligenten Bilderkennung sowie Rechenkapazitäten aus der Cloud für die Auswertung der Aufnahmen zur Verfügung stellt. Dabei ergreift man aber alle Maßnahmen, um die Anonymisierung der Daten beizubehalten, da die Polizei die Daten nicht an Dritte weitergeben darf. Die Rechtssicherheit sei also gegeben.

Wo Menschen mit den Dateien nicht mehr viel anfangen könnten, kann die KI aber in den dekonstruierten Bilddateien relevante Inhalte erkennen. Am Ende entscheiden menschliche Experten aus dieser Vorauswahl, ob tatsächlich strafrechtlich relevantes Bildmaterial vorliegt, und sichern diese Dateien als gerichtsfestes Beweismaterial.

Im nächsten Schritt des Projekts geht es dann um das Training der Algorithmen mit strafrechtlich relevanten, dekonstruierten Bilddateien, um die Treffergenauigkeit des Programms und damit seine Erfolgsquote im Kampf gegen Kinderpornografie zu verbessern. Klingt alles recht abstrakt, wird euch aber auch im obigen Video vielleicht etwas deutlicher gemacht.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hauptberuflich hilfsbereiter Technik-, Games- und Serien-Geek. Nebenbei Doc in Medienpädagogik und Möchtegern-Schriftsteller. Hofft heimlich eines Tages als Ghostbuster sein Geld zu verdienen oder zumindest das erste Proton Pack der Welt zu testen. Mit geheimniskrämerischem Konto auch bei Facebook zu finden. PayPal-Kaffeespende an den Autor.

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

10 Kommentare

  1. Jedes Mittel sollte recht und billig sein, diese Straftaten verfolgen zu können!

    • Um Himmels Willen, auf gar keinen Fall.

      Jedes verhältnismäßige, rechtstaatliche Mittel in geeignetem Umfang unter den gegebenen institutionellen Gewaltenverschränkungen – das gerne.

      Nur weil es Straftaten gibt die man besonders schlecht findet muss man ja nicht gleich allen gesellschaftlichen und institutionellen Fortschritt in die Tonne kloppen.

  2. Also muss am Ende doch wieder ein Ermittelungsbeamter alle „schlimmen“ Bilder durchgucken, während die KI vorher die harmlosen Urlaubsfotos ausgefiltert hat. Spart zwar Zeit, aber ich sehe nicht, wie das nun die Beamten weniger belasten soll.
    Und was nützt das ganze, wenn der Täter (wie gerade erst) dann doch auf „Bewährung“ frei kommt, weil die Richter angesichts überfüllter Gefängnisse und sich unschön entwickelnder Kriminalstatistiken sowieso nie das Strafmaß ausschöpfen….

    • > Und was nützt das ganze, wenn der Täter (wie gerade erst) dann doch auf „Bewährung“ frei kommt

      Ist das Argument, das eine effizientere Auswertung nutzlos ist, weil dir einige Urteile nicht gefallen? Das scheint mir doch eine sehr binäre Evaluation der von MS bereitgestellten Technologie zu sein.

      Ich weiß nicht, aber ich stell mir schon vor, dass es ein großer Fortschritt ist, den (qua Quasi-Hash(?)) bereits bekannten Teil des Materials kein zweites mal Sichten zu müssen. (Das ist ja worauf es wohl hinauslaufen soll?)

  3. Wie trainiert man solche Netze? :/

    • Peter Brülls says:

      Die haben schon einen riesigen Fundus von Missbrauchsbildern, schon vor über 25 Jahren hatten wir mal, als ich bei einem Provider arbeitete, eine Software des BKA evaluiert, die ein umtriebiger Beamte geschrieben hatte.

      War im wesentlichen noch ein Hash-basierters System, aber das ist jetzt nebensächlich.

      Springender Punkt ist: BKA und Co haben diesen Fundus und mussten ihn durchgehen. Das ist dann schon mal eine Quelle. Normale Fotos solle man ja aus zig Quellen kriegen.

      Dann das Neurale Netz trainieren und fertig.

      Nicht vergessen: Die meisten Päderasten tauschen Material und haben auch mehr als ein Bild. Für manche Zwecke wird es also ausreichen lassen, die Festplatten durchsuchen zu lassen, wenn da auch nur ein Match bei ist, dann hat man schon mal ein Verzeichnis zum durchsuchen.

      Dann muss natürlich noch ein Mensch ran, klar. Arme Schweine die das machen müssen, aber ich gehe mal davon aus, dass ausgebildete Ermittler besser ausgebildet und betreut werden als die Facebook-Lohnsklaven.

  4. Kam nicht vor Jahren mal die Meldung auf Heise, dass unter anderem OneDrive eingebaute Erkennungsmechanismen hat um nicht nur Warez sondern auch KiPo zu erkennen?
    Dann macht es eh noch mehr Sinn, auch wenn das System vllt. „nur“ Hash-Basiert ist, lässt es sich sicherlich leichter zu einer KI umbauen als wenn man von 0 starten müsste.
    Ich hoffe nur dass das ganze auch 100% treffsicher ist, bevor es real eingesetzt wird, sonst könnte das ganze bei Fehlern der Software im Prozess nach Hinten losgehen.
    Schon sicherlich positiv, wenn es denn wie gesagt auch funktioniert.
    Der allgemeine Trend aber, dass wir irgendwann die Justiz mehr oder weniger komplett automatisieren ist aber doch ziemlich orwellisch..

  5. Für die Nackedeifotos von mir als Kind in der Badewanne würden heutige Eltern bei digitaler Erstellung wohl vor Gericht gehen.

    Vielleicht einfach wieder die Bilder (also früher fanden wir die in der Familie total lustig) Analog auf Film machen?

    Ob Bargeld oder sonst, eine nicht-digitale Welt hat wohl ihre Vorteile.

    Denn eine KI, die Bilder auf solche Sachen durchsucht, wird noch viel besser andere Sachen erfassen können. Und wie sowas in einem totalitären Staat aussehen könnte, kann man sich vorstellen.

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.