Bilanz nach 1,7 Millionen Meilen: auch selbstfahrende Fahrzeuge sind in Unfälle verwickelt
Autonom fahrende Straßenkreuzer, so sieht unsere Zukunft aus. Nicht mehr selbst ans Steuer müssen, sondern Dinge erledigen, während man von A nach B gebracht wird. Gleichzeitig sollen diese Fahrzeuge für weniger Unfälle sorgen, da der Risikofaktor Mensch (94 Prozent der Unfälle werden durch den Fahrer verursacht) außen vor gelassen wird. Dennoch, so ganz können sich auch die selbstfahrendes Autos von Google nicht den Unfällen entziehen, auch wenn sie selbst in keinem der Fälle Schuld haben.
Für Google ist jede gefahrene Meile ein Teil des Lernprozesses. Unfallstatistiken sagen nicht viel über kleinere Unfälle aus. In elf solcher Unfälle waren auch Googles selbstfahrende Autos beteiligt, entweder tatsächlich autonom fahrend oder mit Fahrer. Schuld waren die Fahrzeuge an keinem der Unfälle, verhindert werden konnten sie jedoch auch nicht. Bei 1,7 Millionen Meilen sicher kein schlechter Schnitt.
Am häufigsten gibt es Auffahrunfälle, an roten Ampeln, an Stoppschildern, aber auch auf freier Strecke. In den Straßen von Städten kracht es häufiger als auf Überlandfahrten und viele Fahrer achten nicht auf den Verkehr, diese Erkenntnis konnte Google auf den Testfahrten gewinnen. Und lässt diese entsprechend in die Entwicklung mit einfließen.
Googles Fahrzeuge haben einen 360 Grad-Blick, der sich über eine große Fläche erstreckt. Gefahren werden erkannt, bevor sie ein Mensch wahrnehmen könnte, folglich kann auch schneller reagiert werden. Dabei können aber keine Gesetze der Physik gebrochen werden, auch autonome Fahrzeuge haben einen Bremsweg. Welche Probleme im Straßenverkehr auftreten, beschreibt Chris Urmson (Leiter von Googles Programm für selbstfahrende Fahrzeuge) in einem Blogpost. Sehr interessant, vor allem da Situationen gezeigt werden, die alles andere als unrealistisch sind. Verkehrsteilnehmer, die noch schnell trotz Rot über die Ampel fahren, Fahrzeuge, die über mehrere Spuren abbiegen, Fahrradfahrer, die es nicht mehr während der Grünphase über eine Kreuzung schaffen.
Die selbstfahrenden Fahrzeuge werden irgendwann dafür sorgen, dass es zu weniger Unfällen kommt. Aber Unfälle ganz verhindern können, werden auch diese Fahrzeuge nicht. Auch dürfte klar sein, dass diese Art der Bagatellschäden mit mehr autonomen Fahrzeugen immer mehr abnehmen werden, da der Fahrer keine falsche Entscheidung mehr treffen kann und auch nicht dafür verantwortlich ist, permanent auf den Verkehr zu achten.
Kurz vor dem Germanwings Geschehen leitete der Bordcomputer einer Linienmaschine einen Sinkflug ein, die ohne Eingreifen des Piloten zum Crash geführt hätte. Ich glaube, mehr braucht man zur Technikgläubigkeit nicht sagen.
Gefahr 1: Ein Risikobug führt dann immer zu einem Unfall, was bei einem Menschen nicht der Fall ist.
Gefahr 2: Computer können manipuliert werden.
Flugzeuge haben diese unangenehme Eigenschaft nicht einfach stehen bleiben zu können. Es ist außerdem natürlich nicht ausgeschlossen, dass es auch mal zu einem Unfall kommt, weil der Computer falsch entscheidet, die Anzahl dieser Fälle wird die Anzahl der menschlichen Fehler aber nichtmal im Ansatz erreichen.
Die Manipulation solcher System wird erst dann zu einem Problem, wenn sie sich wesentlich von den heutigen Manipulationsmöglichkeiten unterscheidet. Sprich hohe Skalierbarkeit des Angriffs und aus der Ferne ausführbar. Das halte ich im Großen und Ganzen für Panikmache.
Also ca. alle 155.000km ein Unfall, ein Großteil davon in Nevada ohne nennenswerten Verkehr. Hört sich nicht wirklich vertrauenserweckend an.
@Fraggle: Und wie viele Unfälle hat die Technik verhindert? Wie viele Unfälle sind durch den Menschen verursacht worden?
Da darfst du nicht nur die Rosinen raussuchen und sagen Technik wäre schlecht.
Auch Menschen machen Fehler oder warum ist gerade erst vor ein paar Wochen die Germanwings abgestürzt?
Dort war der Bug ein Mensch der eine Maschine bewusst vor einen Berg geflogen hat.
@kOOk: Du musst bedenken das ist in den USA. Die Fahrzeuge sind klar als Versuchsträger von Google erkennbar. Zähle eins und eins zusammen und da kann man zur Vermutung kommen, dass Viele einen Unfall provoziert haben um vor Gericht Millionen als Schadensersatz von Google zu erklagen. Gerade wenn die Unfall gründe Schneiden oder zu dichtes Auffahren waren.
@kOOk hast du den Aritkel eigentlich gelesen? Die google Autos hatten an keinem der genannten Unfälle Schuld…
@kOOk:
Dass die Google-Autos an keinem der Unfälle Schuld waren haben Sie wohl überlesen. Oder hat es nur für die Überschrift gereicht?
Solange die selbstfahrenden Autos sich nicht in Luft auflösen können, werden sie wohl nicht alle durch Menschen verschuldeten Auffahrunfälle vermeiden können.
@kook
nein, nicht 155.000km sondern fast 250.000km.
wenn man als schnitt 20.000 kilometer nimmt, die jeder so im jahr fährt (bei mir sinds 12.000), dann wären es alle 12,5 jahre ein (eher kleiner) unfall.
und wer sagt dir, dass die fahrten hauptsächlich mitten im nirgendwo stattfanden?
@fraggle
was soll die erwähnung des germanwings absturzes? hat ja nun gar nix damit zu tun. und nur weil mal ein pilot sich nicht zu tode gelangweilt hat, sondern den autopiloten korrigieren musste, heißt das noch gar nix. das flugzeug ist insgesamt schließlich ein extrem sicheres verkehrsmittel.
@Handuo:
Sicher, Technik hat auch verhindert. Es gibt immer Kehrseiten, das wollte ich damit sagen, ging aber unter.
@HO:
Na, wenn Du es meinen Text ganz gelesen hättest, hättest Du es verstanden. Aber für Dich schreibe ich es mal ganz langsam:
Zeitliche Einordnung: Vor dem bekannten Absturz, wodurch klar ist, es ist nicht lange her.
Geschehen: Fehlfunktion der Technik
Vermeiderung einer Katastrophe: Dank Piloteneingriff (der übrigens nicht so einfach gewesen sein soll).
Ich hoffe jetzt hast Du es begriffen, mit Autopilot an sich hatte es wenig zu tun. Aber danke fürs mitspielen.
KIs entscheiden sich nicht falsch, sie folgen nur den gegebenen Regeln. Ein Unfall resultiert aus nicht gegebenen Regeln. 😉
Freu mich schon mal auf mehr Intelligenz im Verkehr, auch wenn sie nur künstlich ist. Sorry, allemal besser als die intelligenzbefreite Motorsport Fraktion.
„Nicht mehr selbst ans Steuer müssen, sondern Dinge erledigen, während man von A nach B gebracht wird.“ Also known as öffentliches Verkehrsmittel. Ich wage ja nicht zu träumen, wie der öffentliche Verkehr aussehen würde, würde man auch nur einen Bruchteil dessen, was eine Volkswirtschaft in motorisierten Individualverkehr steckt, in den Auf- und Ausbau von Bahn, Tram und Bus investieren würde. Aber es ist natürlich wesentlich besser, wenn jeder für sich selbst mit künstlicher Intelligenz seinen ganz eigenen Chauffeur imitiert, während er weiterhin im ineffizientesten Verkehrsmittel von allen durch die Gegend gurkt.
Soweit ich das richtig verfolgt habe, sind in vielen Fällen andere den Google-Fahrzeugen hinten drauf gefahren, da kann die Technik wohl kaum was verhindern, wenn der Hintermann zu blöd ist.
Die Jüngeren unter uns werden es noch erleben, daß man gar keine Autos mehr kaufen kann, die von einem Menschen steuerbar sind. Und genau das wird die Gefahren des Straßenverkehrs dramatisch vermindern, denn eine Maschine derartiger Komplexität wie ein Auto ist für Menschen eigentlich viel zu gefährlich.
Als erstes werden Kraftfahrer, Taxifahrer und Piloten überflüssig werden. Sie werden nicht mehr gebraucht und sind auch viel zu riskant.
Wie wir es ja vor kurzem bei dem Absturz in Frankreich ja auch erlebt haben.
Keine Unfälle würde es mehr geben, wenn niemand mehr fahren und auch laufen kann wie er will. Warte nur noch auf das Exoskelett als Outdoor-Ergometer mit Navi!
@Fraggle Hast du eine Quelle fuer die Germanwings Autopilot geschichte? Hatte ich nicht mitbekommen.
Man laesst gerne aussen vor dass immer wenn es gefaehrlich ist (Wetterbedingungen CAT III) MUSS per autopilot gelandet werden. Piloten uebernehmen Verantwortung, das scheint vielen irgendwie wichtiger zu sein als tatsaechlich geringe Unfallraten.