Automatische Überwachung: Drohnen sollen dank Machine Learning Gewaltausbrüche erkennen
Automatisierte Überwachung: Das lässt viele Anwender die Hände über dem Kopf zusammenschlagen. Allerdings kann damit aktuell vieles gemeint sein – von Tracking im Internet über Datensammelei durch Behörden bis hin zu Videokameras. Wissenschaftler haben nun ein neues Paper namens „Eye in the Sky“ vorgestellt, das die automatische Überwachung über Drohnen beschreibt. Der Clou ist dabei, dass die Drohnen mit ihren Kameras von allein Situationen erkennen sollen, in denen es zu gewaltsamen Handlungen kommt bzw. kommen könnte.
Herzstück sind dabei ein Algorithmus bzw. maschinelles Lernen. Dadurch kann eine Software in Echtzeit das über die Kameras aufgenommene Material mit der Hilfe einer mobilen Internetverbindung auswerten. Anhand der Körperhaltung der Menschen, können dann laut den Wissenschaftlern fünf Gefahren erkannt werden: Würgen, Schlagen, Treten, Schießen und Zustechen. Ziel ist es, das System an öffentlichen Plätzen zu implementieren und z. B. Großveranstaltungen zu überwachen. Ein Problem ist allerdings aktuell noch die Genauigkeit.
So kann der Algorithmus laut den Forschern mit einer Genauigkeit von 94 % bei einzelnen Personen Gewalthandlungen erkennen. Je mehr Menschen aber ins Bild kommen, desto mehr fällt jene Rate. Sind zehn Personen zu sehen, beträgt die Quote etwa nur noch 79 %. Zumal diese Erfolgsraten unter kontrollierten Bedingungen entstanden sind. Demnächst soll Eye in the Sky allerdings in Indien auf zwei großen Veranstaltungen getestet werden, Technozion und Spring Spree an der NIT Warangal. Jene Tests dürften mehr Aufschluss geben.
Entsprechend bemängeln andere Wissenschaftler an dem Projekt aktuell, dass das Team hinter Eye and the Sky zwar angebe mit welcher Erfolgsrate gewalttätiges Verhalten erkannt werde, aber der wichtige Wert fehle mit welcher Rate harmloses Verhalten als gewalttätig eingestuft werde. Zudem seien die bisherigen Tests zu wenig aussagekräftig. Denn bei echten Großveranstaltungen seien eben viel mehr Menschen im Spiel, die Interaktionen seien schwerer zu bewerten und die Aufnahmebedingungen seien oft kompliziert.
Natürlich gibt es für derartige Techniken auch viel Missbrauchspotential. Die Wissenschaftler lehnen hier aber die Verantwortung ab: Jede Entwicklung könne für sowohl gute als auch böse Zwecke eingesetzt werden. Per se eröffne Eye in the Sky viele Potentiale für die Bekämpfung von Kriminalität und Terrorismus. Ob die Technik sich am Ende als praxistauglich erweist, muss aber ohnehin noch die Zeit zeigen.
Ich sage nur „Person of Interest“ – geile Serie genau über dieses Thema!
Viel Spaß dabei. https://www.youtube.com/watch?feature=youtu.be&v=6L1__ooD5-M Aufklärung ab Minute 7. Das Thema geht uns alle an.