Neuronale Netze: Wie Studenten autonome Autos schlau machen
Daimler und Bosch setzen bei ihren selbstfahrenden Autos auf künstliche Intelligenz. Doch das Trainieren der neuronalen Netzwerke ist mühselig und mit viel Handarbeit verbunden.
Einer der vielen Mythen zur künstlichen Intelligenz besteht darin, dass die Systeme nur mit genügend Daten gefüttert werden müssen, um sie lernen zu lassen. "Der Google-Translator etwa übersetzt täglich maschinell circa 100 Milliarden Wörter und wird dadurch stetig trainiert und optimiert", sagte der CDU-Abgeordnete Hansjörg Durz Ende Juni 2018 im Bundestag. Doch so einfach ist es nicht. Ein Übersetzungsprogramm lernt nicht dadurch, dass es selbst übersetzt, sondern menschliche Übersetzungen analysiert. Auch beim autonomen Fahren ist viel Handarbeit erforderlich, um sichere Systeme zu entwickeln.
- Neuronale Netze: Wie Studenten autonome Autos schlau machen
- Mühsame Klassifizierung von Objekten
- Fusion der Sensordaten recht langsam
Wie groß dieser Aufwand ist, merken derzeit der Automobilhersteller Daimler und der Zulieferer Bosch. Beide Firmen kündigten in der vergangenen Woche an, schon im kommenden Jahr im US-Bundesstaat Kalifornien einen selbstfahrenden Shuttle-Service zu testen. Wie sie diese Aufgabe meistern wollen, erläuterten Entwickler beider Unternehmen in dieser Woche im neuen Daimler-Testzentrum für autonomes Fahren im baden-württembergischen Immendingen. Neuronale Netze und schnelle Rechner spielen dabei eine entscheidende Rolle.
Hohe Rechenleistung erforderlich
Schon jetzt sind Mercedes-Modelle wie die S- und E-Klasse mit zahlreichen Sensoren und Assistenzsystemen ausgestattet. Doch diese Systeme reichen bei weitem nicht aus, wenn sich ein Auto fahrerlos in einem dichten Stadtverkehr bewegen will. Das Auto muss dann in der Lage sein, die Verkehrssituation vollständig zu erfassen, zu verstehen und die richtige Fahrentscheidung zu treffen. Tödliche Fehler, wie im Frühjahr bei der Kollision eines Uber-Testautos mit einer Fußgängerin, dürfen dann nicht passieren.
Daimler und Bosch entwickeln die erforderliche Hard- und Software weitgehend selbst. Das gilt sowohl für die Sensorauswertung und die Sensordatenfusion als auch für die Fahrwegplanung. Als Kooperationspartner für die schnelle Steuereinheit wurde – ebenfalls in der vergangenen Woche – der US-Chiphersteller Nvidia präsentiert. Auf dessen Plattform Drive PX Pegasus sollen die Billionen an Rechenoperationen in jeder Sekunde durchgeführt werden, die für das autonome Fahren erforderlich sind. Je mehr Schichten ein "tiefes" neuronales Netz hat, desto mehr Rechenleistung ist nötig.
Von Pixeln zu Stixeln
Eine große Rechenleistung braucht es auch deswegen, weil die Kooperationspartner auf ein komplexes Sensorsystem mit Kamera, Lidar und Radar setzen. Vor allem die Kameras liefern viele Rohdaten, die nicht über den Fahrzeugbus zum Zentralrechner geschickt werden können. Um die Datenlast zu reduzieren, hat Daimler das sogenannte Stixel-Konzept entwickelt, mit dem das Bild von ein bis zwei Millionen Pixeln in wenige Hundert Stäbe (Sticks) reduziert wird. Die Stixel repräsentieren unterschiedliche Objekte im Verkehrsraum, beispielsweise Verkehrsteilnehmer, Fahrbahn, Straßenschilder, Bäume und andere Gegenstände.
Entscheidend für das autonome Fahren ist nun, dass das Fahrzeug diese Objekte richtig klassifizieren kann. Schon jetzt setze Daimler bei der automatischen Fußgängererkennung seiner Assistenzsysteme auf neuronale Netze, sagt Uwe Franke, Leiter der Abteilung Bildsemantik bei Daimler. Inzwischen verfügten die neu entwickelten Netze über 24 Millionen Neuronen mit 128 Millionen Gewichten, die an Millionen Bildern lernen könnten.
Mühsame Klassifizierung von Objekten |
Das reicht doch für den Anfang schon mal. Ein Auto verlässt sich ja auch nicht alleine...
Denkt einfach immer an die bevorstehende Singularität. Ein Mensch brauch ewig um sich zu...
Ne, das stimmt schon so. Oliveeer meint wahrscheinlich die Einträge der Kovarianzmatrix...