NewsSicherheit

Unfälle mit selbstfahrenden Autos

Beim Test von selbstfahrenden Autos kam es im Straßenverkehr nach einigen Zwischenfällen im US-Bundesstaat Arizona im März 2018 erstmals zu einem tödlichen Unfall. Damit wurde die Diskussion über die Sicherheit und die Ausgereiftheit der Technik fortgesetzt.

Unfall mit Autopilot-Assistenzsystem im Mai 2016

Im Mai 2016 erlitten Entwickler von selbstfahrenden Autos den ersten großen Rückschlag. Denn damals kam es im US-Bundesstaat Florida beim Einsatz der Autopilot-Funktion eines Tesla Model S zu einem tödlichen Unfall. Der Fahrer des nur beschränkt autonom fahrenden Wagens verlor dabei durch den Aufprall auf einen Lastwagen sein Leben. Laut dem Hersteller verwechselte das System des Autos den Lastwagen-Anhänger mit einem hoch hängenden Straßenschild. Tesla verkaufte das Modell jedoch ausdrücklich nicht als selbstfahrenden Wagen. Der Autopilot war lediglich als Assistenzsystem vorgesehen. Obwohl das Fahrzeug technisch auf ein ähnliches Prinzip setzt, trug somit wohl auch der verunglückte Fahrer eine Mitschuld.

Im Anschluss an den Zusammenprall mit dem Lastwagenanhänger fuhr das Auto zunächst noch weiter und kollidierte mit einem Strommast. Tesla erklärte, dass das Autopilot-System noch nicht vollkommen perfekt sei und die Fahrer deshalb unbedingt stets am Lenkrad bleiben müssen, um auf Fehler der Technik sofort zu reagieren. Wer sich vollständig auf derartige Autopilot-Systeme verlässt und beim Fahren nicht die volle Aufmerksamkeit der Straße widmet, handelt daher fahrlässig.

Erster tödlicher Unfall bei Tests im März 2018

Trotz des tödlichen Unfalls mit dem Autopilot-System im Jahr 2016 arbeiteten verschiedene Hersteller in den folgenden beiden Jahren intensiv an der Verbesserung von selbstfahrenden Autos und führten zahlreiche Praxistests durch. Währenddessen saß im Straßenverkehr jedoch normalerweise stets ein Mensch am Steuer, um bei Fehlfunktionen sofort einzugreifen. Hierbei verlor im März 2018 eine Fußgängerin in der Stadt Tempe im US-amerikanischen Bundesstaat Arizona ihr Leben. Während die Frau die Straße überquerte, wurde Sie von einem selbstfahrenden Wagen des Verkehrsunternehmens Uber erfasst.

Laut den Angaben der Polizei bremste das Fahrzeug nicht ab und unternahm auch keinen Versuch, der Fußgängerin auszuweichen. Obwohl das Auto zu diesem Zeitpunkt vollkommen autonom gesteuert wurde, blieb aber vorerst unklar, ob es tatsächlich zu einem schwerwiegenden Versagen der Technik kam. Im Wagen befand sich aus Sicherheitsgründen ein Mensch, dem es ebenfalls nicht gelang, rechtzeitig einzugreifen. Nach ersten Untersuchungen hielten die Behörden es für denkbar, dass es auch mit einem normalen Pkw für den Fahrer unmöglich gewesen wäre, die Kollision zu verhindern.

Die Verstorbene nutzte nicht den gekennzeichneten Fußübergang und ist in der Videoaufnahme des autonomen Fahrzeugs erst unmittelbar vor dem Aufprall im Sichtfeld erkennbar. Dennoch stoppte Uber vorerst im Straßenverkehr alle Testversuche mit selbstfahrenden Autos, um den Vorfall zunächst gründlich zu untersuchen. Der Gouverneur von Arizona entzog dem Unternehmen außerdem die Testlizenz. In Kalifornien wurde die Lizenz wiederum nicht verlängert. Trotz der ungeklärten Schuldfrage ist das Vertrauen in die Zuverlässigkeit von selbstfahrenden Autos wegen des Zwischenfalls stark gesunken. Nachdem zuvor in den Vereinigten Staaten sogar erste autonome Wagen ohne Fahrer für Testfahrten zugelassen waren, gehen Politiker mit dem Thema nun viel vorsichtiger um.

Weitere Zwischenfälle und grundsätzliche Bedenken

Zweifel über die Zuverlässigkeit von selbstfahrenden Autos wurden in der Öffentlichkeit auch durch mehrere kleine Vorfälle immer wieder geweckt. In einem Video war beispielsweise im Dezember 2016 zu sehen, wie ein Pkw mit autonomer Fahrzeugtechnik über eine rote Ampel fuhr. Obwohl laut den Angaben des Betreibers zu diesem Zeitpunkt ein Mensch die Steuerung übernommen hatte, erhielten Forderungen nach einer Einstellung von Tests im Straßenverkehr dadurch neue Nahrung. Zudem berichteten Journalisten darüber, dass Sicherheitsfahrer bisher relativ häufig die Kontrolle übernehmen mussten, um Probleme mit autonomen Autos zu vermeiden. Vor allem bei der richtigen Einschätzung von Sattelschleppern und der Situation auf Baustellen traten demnach unerwünschte Probleme auf.

Bei normalen Bedingungen auf der Straße überzeugen zahlreiche autonome Fahrzeuge mit fehlerfreien Testergebnissen. Die größte Hürde für die selbstfahrenden Autos besteht darin, mit außergewöhnlichen Ereignissen im Straßenverkehr zurechtzukommen. Dabei geht es insbesondere um Situationen, in denen Menschen in anderen Pkws ein Fehler unterläuft. Darüber hinaus fallen beispielsweise bei Unwettern eventuell Hindernisse auf die Straße, die für die Technik zu ernsthaften Bewährungsproben führen. Wegen der Vielzahl von möglichen Zwischenfällen mit den verschiedensten Faktoren ist es äußerst schwer, einzuschätzen, ob die autonome Fahrtechnik bereits dauerhaft ihre Alltagstauglichkeit unter Beweis stellen würde.

Hoffnung auf mehr Sicherheit und Angst vor Manipulation

Viele Experten halten es aber für sehr wahrscheinlich, dass gefährliche Fehler der Technik im Vergleich zu menschlichem Versagen am Steuer irgendwann seltener werden. Darum besteht durchaus die Chance, mit selbstfahrenden Autos eines Tages sogar allgemein für mehr Sicherheit im Straßenverkehr sorgen. Denn bei den meisten Unfällen trägt ein beteiligter Mensch die Hauptschuld.

Auch wenn die Autotechnik dem menschlichen Fahrer bald überlegen wäre, gibt es jedoch noch einen weiteren Risikofaktor bei der Freigabe von selbstfahrenden Pkws im Straßenverkehr. Es wäre nämlich aus der Sicht von vielen Beobachtern nicht ausgeschlossen, dass Kriminelle die Technologie der Fahrzeuge in Zukunft manipulieren. Selbstfahrende Pkws mit einer Internetverbindung müssten ausnahmslos durch zuverlässige Sicherheitsvorkehrungen vor Angriffen von Hackern geschützt werden.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert