Automatische Überwachung: Drohnen sollen dank Machine Learning Gewaltausbrüche erkennen

Automatisierte Überwachung: Das lässt viele Anwender die Hände über dem Kopf zusammenschlagen. Allerdings kann damit aktuell vieles gemeint sein – von Tracking im Internet über Datensammelei durch Behörden bis hin zu Videokameras. Wissenschaftler haben nun ein neues Paper namens „Eye in the Sky“ vorgestellt, das die automatische Überwachung über Drohnen beschreibt. Der Clou ist dabei, dass die Drohnen mit ihren Kameras von allein Situationen erkennen sollen, in denen es zu gewaltsamen Handlungen kommt bzw. kommen könnte.

Herzstück sind dabei ein Algorithmus bzw. maschinelles Lernen. Dadurch kann eine Software in Echtzeit das über die Kameras aufgenommene Material mit der Hilfe einer mobilen Internetverbindung auswerten. Anhand der Körperhaltung der Menschen, können dann laut den Wissenschaftlern fünf Gefahren erkannt werden: Würgen, Schlagen, Treten, Schießen und Zustechen. Ziel ist es, das System an öffentlichen Plätzen zu implementieren und z. B. Großveranstaltungen zu überwachen. Ein Problem ist allerdings aktuell noch die Genauigkeit.

So kann der Algorithmus laut den Forschern mit einer Genauigkeit von 94 % bei einzelnen Personen Gewalthandlungen erkennen. Je mehr Menschen aber ins Bild kommen, desto mehr fällt jene Rate. Sind zehn Personen zu sehen, beträgt die Quote etwa nur noch 79 %. Zumal diese Erfolgsraten unter kontrollierten Bedingungen entstanden sind. Demnächst soll Eye in the Sky allerdings in Indien auf zwei großen Veranstaltungen getestet werden, Technozion und Spring Spree an der NIT Warangal. Jene Tests dürften mehr Aufschluss geben.

Entsprechend bemängeln andere Wissenschaftler an dem Projekt aktuell, dass das Team hinter Eye and the Sky zwar angebe mit welcher Erfolgsrate gewalttätiges Verhalten erkannt werde, aber der wichtige Wert fehle mit welcher Rate harmloses Verhalten als gewalttätig eingestuft werde. Zudem seien die bisherigen Tests zu wenig aussagekräftig. Denn bei echten Großveranstaltungen seien eben viel mehr Menschen im Spiel, die Interaktionen seien schwerer zu bewerten und die Aufnahmebedingungen seien oft kompliziert.

Natürlich gibt es für derartige Techniken auch viel Missbrauchspotential. Die Wissenschaftler lehnen hier aber die Verantwortung ab: Jede Entwicklung könne für sowohl gute als auch böse Zwecke eingesetzt werden. Per se eröffne Eye in the Sky viele Potentiale für die Bekämpfung von Kriminalität und Terrorismus. Ob die Technik sich am Ende als praxistauglich erweist, muss aber ohnehin noch die Zeit zeigen.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hauptberuflich hilfsbereiter Technik-, Games- und Serien-Geek. Nebenbei Doc in Medienpädagogik und Möchtegern-Schriftsteller. Hofft heimlich eines Tages als Ghostbuster sein Geld zu verdienen oder zumindest das erste Proton Pack der Welt zu testen. Mit geheimniskrämerischem Konto auch bei Facebook zu finden.

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

2 Kommentare

  1. Ich sage nur „Person of Interest“ – geile Serie genau über dieses Thema!

  2. Viel Spaß dabei. https://www.youtube.com/watch?feature=youtu.be&v=6L1__ooD5-M Aufklärung ab Minute 7. Das Thema geht uns alle an.

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.