Zulassung autonomer Autos: Die längste Fahrprüfung des Universums

88-mal zur Sonne und wieder zurück: So lang müsste theoretisch eine Teststrecke für autonome Autos sein. Eine starke Motivation für Hersteller und Behörden, emsig nach anderen Lösungen zu suchen.

Eine Analyse von veröffentlicht am
Ein reales Auto fährt beim DLR über eine virtuelle Autobahn.
Ein reales Auto fährt beim DLR über eine virtuelle Autobahn. (Bild: Friedhelm Greis/Golem.de)

Wohl jeder Autofahrer kann sich noch an diese aufregende Dreiviertelstunde erinnern: In der praktischen Führerscheinprüfung dem strengen Prüfer zu zeigen, dass man einen Pkw sicher durch den Verkehr schleusen kann - rückwärts einparken inklusive. Dabei war klar: Erst die anschließende Praxis machte aus dem Fahrschüler einen sicheren Autofahrer. Doch wie sollen hochautomatisierte oder gar autonome Autos einmal nachweisen, dass sie möglichst alle Verkehrssituationen sicher beherrschen? Eine 45-minütige Testfahrt reicht da sicher nicht aus. Während Wissenschaftler Milliarden an erforderlichen Testkilometern ausrechnen, will die Autoindustrie auch mit Hilfe von Simulation den Sicherheitsnachweis führen. Tödliche Unfälle durch technische Fehler, wie jüngst bei einem Tesla, sollen dadurch möglichst ausgeschlossen werden.

Die Bundesregierung hat inzwischen die Zulassungsproblematik erkannt und zu Beginn dieses Jahres das Projekt Pegasus ins Leben gerufen. Pegasus ist in diesem Fall ein Akronym für das "Projekt zur Etablierung von generell akzeptierten Gütekriterien, Werkzeugen und Methoden sowie Szenarien und Situationen zur Freigabe hochautomatisierter Fahrfunktionen". Was ziemlich kompliziert klingt - und es auch ist. Es ist daher kein Zufall, dass Pegasus eine Laufzeit von knapp vier Jahren hat und damit erst Ende 2019 abgeschlossen sein dürfte. Bis dahin sollte also feststehen, welche Anforderungen Autos mit einem Autobahnpiloten zu erfüllen haben und wie das nachgewiesen werden soll.

Fehler können tödliche Folgen haben

Wie sinnvoll solche Tests sind, hat der tödliche Unfall mit einem Tesla Model S im vergangenen Mai gezeigt. Dabei hielt das Elektroauto im Autopilotmodus einen querenden Sattelschlepper für ein Verkehrsschild und ignorierte es daher. Wie kann so etwas möglich sein und wie lässt sich eine solche Fehlinterpretation der Sensorauswertung testen und verhindern? Kritiker werfen Tesla-Chef Elon Musk vor, unfertige Produkte auszuliefern und seine Kunden wider Willen zu Testfahrern zu machen.

  • Mit der kooperativen Simulationsumgebung Mosaic beim DLR können mehrere Fahrer gleichzeitig herkömmliche Fahrassistenzsysteme testen. (Foto: Golem.de)
  • Es wird untersucht, wie sich Fahrassistenzsysteme auf den Verkehr auswirken. (Foto: Friedhelm Greis/Golem.de)
  • Das DLR simuliert die Übergabesituationen zwischen Computer und Fahrer. (Foto: Friedhelm Greis/Golem.de)
  • Ein echtes Fahrzeug wird dazu in eine virtuelle Umgebung versetzt. (Foto: Friedhelm Greis/Golem.de)
  • Ähnliche Systeme finden sich bereits in Testfahrzeugen von Audi.  (Foto: DLR)
  • Das DLR testet in Braunschweig bereits in Interaktion zwischen der Infrastruktur und autonomen Fahrzeugen. (Foto: DLR)
Mit der kooperativen Simulationsumgebung Mosaic beim DLR können mehrere Fahrer gleichzeitig herkömmliche Fahrassistenzsysteme testen. (Foto: Golem.de)

Diese Frage nach der Zulassung stellt sich vor allem dann, wenn in wenigen Jahren die ersten Autos bestimmte Verkehrssituationen völlig allein bewältigen sollen. Schließlich darf sich der Fahrer in solchen hoch- und vollautomatisierten Autos "vom Verkehrsgeschehen und der Fahrzeugsteuerung abwenden", wie es in einem Entwurf des Bundesverkehrsministeriums zur Anpassung des Straßenverkehrsgesetzes heißt. Eine falsche Sensorwahrnehmung, eine Fehlinterpretation der Daten sowie eine unangemessene Lenkung oder Bremsung könnten zu schweren Unfällen auf der Autobahn führen. Bei den aktuellen Assistenzsystemen ist immer noch der Fahrer als "Rückfallebene" vorgesehen und verantwortlich. Verlässt er sich hingegen zu sehr auf die Fähigkeiten des Autos, kann das, wie beim Tesla-Unfall, tödliche Folgen haben.

Was leistet der Mensch als "Beifahrer"

Frank Köster vom Deutschen Zentrum für Luft- und Raumfahrt (DLR) in Braunschweig ist federführend für das Projekt Pegasus. Zusammen mit 16 weiteren Unternehmen und wissenschaftlichen Einrichtungen will er darin folgende "Leitfragen" klären: "Wie gut müssen automatisierte Fahrzeuge sein? Wie zeigen wir zuverlässig, dass die Fahrzeuge dies auch sind?" Allerdings geht es bei Pegasus nicht alleine um die Fähigkeiten der Technik. Eine zentrale Frage lautet zudem: "Was leistet der Mensch?", und wie können Fahrer und Fahrzeug auf sinnvolle Weise interagieren.

So will Köster mit seinen Forschungen unter anderem klären, wie viel Zeit das System dem Fahrer einräumen muss, um das Steuer in einer schwierigen Verkehrssituation wieder zu übernehmen. "Was ist die dafür angemessene Zeit und welche Aufgabe kann man als Fahrer übernehmen, wenn man in eine Nebenaufgabe eingebunden war? Pegasus soll die menschliche Leistungsfähigkeit beim Fahren genauer definieren, von der man bei der Gestaltung von Übergabe- beziehungsweise Übernahmeprozeduren ausgehen kann", sagte der Informatiker im Gespräch mit Golem.de.

Die Antwort auf diese Frage wirkt sich wiederum entscheidend auf die Anforderungen an die Fahrzeugtechnik aus. Denn es macht einen großen Unterschied auf der Autobahn aus, ob ein Fahrer nach 5, 10 oder erst nach 15 Sekunden fahrbereit sein muss. Bei Tempo 130 legt das Auto in fünf Sekunden 180 Meter zurück, in 15 Sekunden bereits mehr als einen halben Kilometer.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
Astronomisch lange Teststrecken 
  1. 1
  2. 2
  3. 3
  4. 4
  5. 5
  6. 6
  7.  


Jan Martin 06. Nov 2016

Die Statistik besagt bspw. ein Mensch baut alle xxx Mio Kilometer einen Unfall. Und alle...

Berner Rösti 06. Nov 2016

Nö. Die Leute denken, dass die Piloten da drin sitzen, um im Notfall eingreifen zu können.

nasenweis 05. Nov 2016

ohje. Da sollte sich mal jemand schlau machen was Fahrzeugassistenzsysteme heute schon...

Ugly 05. Nov 2016

Hmm, eine Antwort willst du jetzt nicht wirklich,oder?



Aktuell auf der Startseite von Golem.de
Fehlerhaftes Pedal
Tesla muss Cybertruck zurückrufen

Tesla hat beim Cybertruck einen erheblichen Rückschlag erlitten. Das Unternehmen hat eine Rückrufaktion für fast alle 3.878 Cybertrucks gestartet.

Fehlerhaftes Pedal: Tesla muss Cybertruck zurückrufen
Artikel
  1. Voodoo-X: Bastler bauen eine neue 3dfx Grafikkarte
    Voodoo-X
    Bastler bauen eine neue 3dfx Grafikkarte

    Mit originalen Chips und neuen Designtools soll die bisher beste 3dfx-Grafikkarte entstehen. HDMI und zuschaltbaren Speicher gab es bisher nicht.

  2. Innovative Programmiersprachen für moderne Coder
     
    Innovative Programmiersprachen für moderne Coder

    Kotlin, Go, Rust, Julia, Dart/Flutter: Die Online-Workshops der Golem Karrierewelt erleichtern den Zugang zu den Programmiersprachen und ihren Entwicklungsumgebungen.
    Sponsored Post von Golem Karrierewelt

  3. Altstore für iPhones ausprobiert: So wenig Spaß macht die Installation alternativer Appstores
    Altstore für iPhones ausprobiert
    So wenig Spaß macht die Installation alternativer Appstores

    Dank DMA lassen sich in Europa endlich alternative App-Marktplätze auf iPhones installieren. Golem.de hat das mit dem Altstore ausprobiert - mit reichlich Frust.
    Ein Erfahrungsbericht von Tobias Költzsch und Daniel Ziegener

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • Spring Sale bei Gamesplanet • Neuer MediaMarkt-Flyer • MindStar: AMD Ryzen 7 7800X3D 339€ • Bose Soundbar günstig wie nie • Samsung Galaxy S23 -37% • MSI OLED Curved 34" UWQHD 175Hz -500€ • Alternate: Deep Cool CH560 Digital Tower-Gehäuse 99,90€ • PS5-Spiele -75% [Werbung]
    •  /