Studie zeigt, dass viele Autofahrer dem Autopiloten misstrauen
2 Minuten Lesezeit
[01.05.2018] Auf dem Markt gibt es immer mehr Autos mit Assistenzsystemen, welche den PKW schon fast zum Roboterauto machen – allerdings wollen die Menschen jederzeit die Kontrolle über das Auto haben.
Schon seit Jahren gibt es autonom fahrende Autos, welche auch Roboterautos genannt werden. Diese können ohne Fahrer den Weg von A nach B fahren, in der Regel werden die Fahrten ohne Probleme gemeistert. Allerdings gibt es auch noch ein paar Hürden, welche dafür sorgen, da die Software von Menschen programmiert wurde, welche auch Fehler machen.
Viele Unternehmen und Institution, wie zum Beispiel Google, Nissan, Audi, TU Braunschweig, etc. haben bereits autonom fahrende Autos getestet und die Technik sowie Software wird immer besser.
Immer mehr Assistenzsysteme machen den PKW heute schon fast zum Roboterauto
Damit die Käufer die autonom fahrenden Autos akzeptieren, wird es nötig sein, dass die PKW mit jeder Generation ein Stück autonomer werden. So werden vermutlich auch die Auto der ersten Generationen noch über ein Lenkrad, Gas- und Bremspedal verfügen.
Erst nach vielen Autogenerationen ist es denkbar, dass die Autohersteller auf ein Lenkrad usw. verzichten.
Ich gehe aber davon aus, dass der Straßenverkehr sicherer wir, wenn hauptsächlich nur noch Roboterautos auf den Straßen unterwegs sind.
Via: Handelsblatt
Ich bin auch davon überzeugt, dass es mit der Zeit sicherer wird. nur schon die Abstandsassitenten dienen dazu, Auffahrunfälle zu vermeiden. nur solange die rechtlichen Fragen nicht gelöst sind, wird der Fahrer dem Fahrzeug nicht voll vertrauen, da er für eine Fehlmanipulation des Systems verantwortlich ist. Wenn das mal gelöst ist, und die Verantwortung beim Lieferanten liegt, wird eine Hemmschwelle abgebaut, die das Vertauen in die Technik heute noch hemmt.
Solange man selbst noch Eingriffsmöglichkeit hat und mit wachsamen Augen bei der Sache ist, gibts keinen Grund größer zu misstrauen. Wer halt am Frankfurter Kreuz mit verschränkten Armen bei 120 Sachen mit Autopilot durchknattert, dem ist nicht mehr zu helfen. Nur weil das Ding Autopilot heißt, heißt das nicht, dass man den völlig unbeaufsichtigt alleine rödeln lassen sollte.
Ich schiele da als Vergleich immer gerne zum Autopiloten von Verkehrsflugzeugen. Da es in der Luft nicht ganz so zugeht wie zur Rush Hour auf der Straße nicht zwingend komplett auf Autos anwendbar, aber gut. Was ist denn der Job des Flugkapitäns? Meistens ist doch schon nach ganz kurzer Zeit nach dem Start der Autopilot drin und übernimmt den Flug der vorprogrammierten Route meist bis zum unmittelbaren Landeanflug. Moderne Flugzeuge können ja bereits komplett autonom bis zum Touchdown und Stillstand der Maschine auf der Landebahn agieren. Der Pilot bedient insgesamt den Autopiloten, überwacht diesen, muss immer Herr der Lage sein um Eingreifen zu können, oder übernimmt in schwierigen Situationen das Ruder. So oder jedenfalls eins so ähnliches Verständnis sollte man auch für den Autopiloten auf der Straße entwickeln. Der Autopilot fährt, wird aber permanent vom Fahrer überwacht. Es wird einem immer wieder absurderweise suggeriert, dass der Autopilot im KFZ irgendwann bedeuten sollte, dass man sich zurücklehnen und schlafen kann. Das wird und sollte niemals der Fall sein. Im Zweifel hat der Fahrer Herr über sein Leben zu sein, und keine Maschine, bei der man am Ende nicht mal mehr korrigierend eingreifen könnte.
Nun der Artikel ist klasse. Ehrlich gesagt vertraue ich mit Sicherheit auch keinen Autopiloten bei starkem Verkehr. Wenn die ganzen Fehler und auch die Technik perfekt ausgereift ist, ebenso auch die Möglichkeit schädlicher Software ausgeräumt ist, könnte ich mir ein solches Auto vorstellen.
Zu recht ist einem „Autopiloten“ als solchem zu misstrauen, wenn wir also von dem sprechen, was man uns damit verkaufen möchte. Denn für ein echtes „selbstfahrendem Auto“ ist die Technik schlicht noch nicht reif, und wird dies auch noch lange nicht sein! Damit soll die bestehende Technik jedoch keinesfalls verteufelt werden. Richtig eingesetzt kann diese sehr wohl einen enormen Sicherheitsgewinn bedeuten. Falsch eingesetzt jedoch – nämlich in der Form, sich zu 100% auf diese Technik zu verlassen – ist es, wie man sich nun bereits wöchentlich in den News überzeugen kann, fatal.
Computer und Menschen sind zweierlei. Was der Computer gut kann, können Menschen schlecht. Dazu gehören z.B. ermüdungsfreie, anhaltende Aufmerksamkeit, superschnelle Reaktion auf Ereignisse, gleichbleibende „Funktionsqualität“, deterministisches Verhalten, um nur einige davon zu nennen.
Es gibt aber auch Dinge, die Menschen nach wie vor besser können als Computer: ‚Kreatives‘, und meistens, wenn auch nicht immer, richtiges Verhalten, in nicht vorprogrammierten Situationen. Typischerweise richtiges Einschätzen des Verhaltens anderer Verkehrsteilnehmer oder Einschätzen der Gefährdungslage durch auf der Fahrbahn befindlichen „Dingen“.
Beispielsweise: Will eine Person über die Straße, oder wartet sie dort nur gerade? Ist die Person vielleicht betrunken oder eine Kind (Vertrauensgrundsatz!), oder macht sie grade nur eine lustige Bewegung? Ist die Schachtel auf der Fahrbahn vermutlich leer (wurde sie gerade vom Wind auf die Straße geweht) und fährt man daher mit 120km/h einfach drüber, oder handelt es sich doch um einen Kühlschrank der gerade vom LKW davor heruntergefallen ist und ist daher eine Notbremsung angesagt?
Alle diese „Dinge“ (Menschen, Tiere, Schachteln…) werden von den Sensoren des Autopiloten durchaus sicher erkannt. Man muss nur dem Programm des Autopiloten sagen, wie es sich jeweils verhalten soll. Wäre das Auto auf totale Sicherheit programmiert, würde es in jedem Fall eine Notbremsung einleiten, und alles wäre gut -> 100% Sicherheit, toll!.
Dann hätte man aber gleichzeitig jede Menge Situationen von Notbremsungen (einschließlich Auffahrunfällen), obwohl der Autopilot unnötigerweise gebremst hat. Die Schuld wäre in diesem Fall immer beim Hersteller des Autos zu suchen!
Nun gibt aber eine schier unüberschaubare Vielfalt an möglichen Situationen, die einprogrammiert werden müssten. Selbst wenn der Autopilot in 99% richtig scheiden könnte, bliebe 1% wo eine falsche Entscheidung des Autopiloten zu einem Unfall führt, und der Hersteller die Verantwortung übernehmen müsste!
Also, was macht der Hersteller: Er programmiert die Systeme so, dass sie im „Zweifelsfall“ *nicht* bremsen, und übergibt dann an den Fahrer („Warnung“)! Somit übergibt er dem Fahrer gerade in den kritischen Situationen auch die Verantwortung! Und nun soll der arme Kerl, von dem wir gerade gesagt haben, dass er etwas nicht besonders gut kann (nämlich aus einer unkonzentrierten, entspannten Haltung heraus, extrem schnell richtig reagieren), die Entscheidung treffen, die der Autopilot nicht mehr instande ist zu treffen! Und wenn er das nicht schafft, sagt der Hersteller, der Fahrer hätte doch die ganze zeit hochkonzentriert die Fahrsituation, und das Auto überwachem müssen, und hat somit Schuld am Unfall! So kann es wohl nicht funktionieren.
Also gibt es nur den umgekehrten Weg: Weg mit dem Begriff „Autopilot“ und „selbstfahrend“! Der Fahrer fährt die ganze Zeit selbst, und hat auch die ganze Zeit die Veranwortung! Alles andere (Kameras, Sensoren, Computer…) sind Assistenzsysteme, die nur dann eingreifen, wenn der Fahrer einen Fehler macht! Das erhöht tatsächlich die Sicherheit, denn damit kann das System nicht nur die Umgebung, sondern sogar den Fahrer selbst überwachen (ist er vielleicht unkonzentriert, betrunken, eingeschlafen, Herzinfarkt…?) und in diesen Fällen sogar das Auto selbsttätig sicher am Straßenrand anhalten. Nur in diesen seltenen Notsituationen ist dieses „Selbstfahren“ auch tatsächlich absolut gerechtfertigt.
„Autopilot“ und „selbstfahrend“ dienen ausschließlich dem Marketing, nicht der Sicherheit.