Neuronale Netze: Wie Studenten autonome Autos schlau machen

Daimler und Bosch setzen bei ihren selbstfahrenden Autos auf künstliche Intelligenz. Doch das Trainieren der neuronalen Netzwerke ist mühselig und mit viel Handarbeit verbunden.

Ein Bericht von veröffentlicht am
Die Sensorsysteme müssen zwischen den verschiedenen Objekten im Straßenverkehr unterscheiden.
Die Sensorsysteme müssen zwischen den verschiedenen Objekten im Straßenverkehr unterscheiden. (Bild: Daimler)

Einer der vielen Mythen zur künstlichen Intelligenz besteht darin, dass die Systeme nur mit genügend Daten gefüttert werden müssen, um sie lernen zu lassen. "Der Google-Translator etwa übersetzt täglich maschinell circa 100 Milliarden Wörter und wird dadurch stetig trainiert und optimiert", sagte der CDU-Abgeordnete Hansjörg Durz Ende Juni 2018 im Bundestag. Doch so einfach ist es nicht. Ein Übersetzungsprogramm lernt nicht dadurch, dass es selbst übersetzt, sondern menschliche Übersetzungen analysiert. Auch beim autonomen Fahren ist viel Handarbeit erforderlich, um sichere Systeme zu entwickeln.

Inhalt:
  1. Neuronale Netze: Wie Studenten autonome Autos schlau machen
  2. Mühsame Klassifizierung von Objekten
  3. Fusion der Sensordaten recht langsam

Wie groß dieser Aufwand ist, merken derzeit der Automobilhersteller Daimler und der Zulieferer Bosch. Beide Firmen kündigten in der vergangenen Woche an, schon im kommenden Jahr im US-Bundesstaat Kalifornien einen selbstfahrenden Shuttle-Service zu testen. Wie sie diese Aufgabe meistern wollen, erläuterten Entwickler beider Unternehmen in dieser Woche im neuen Daimler-Testzentrum für autonomes Fahren im baden-württembergischen Immendingen. Neuronale Netze und schnelle Rechner spielen dabei eine entscheidende Rolle.

Hohe Rechenleistung erforderlich

Schon jetzt sind Mercedes-Modelle wie die S- und E-Klasse mit zahlreichen Sensoren und Assistenzsystemen ausgestattet. Doch diese Systeme reichen bei weitem nicht aus, wenn sich ein Auto fahrerlos in einem dichten Stadtverkehr bewegen will. Das Auto muss dann in der Lage sein, die Verkehrssituation vollständig zu erfassen, zu verstehen und die richtige Fahrentscheidung zu treffen. Tödliche Fehler, wie im Frühjahr bei der Kollision eines Uber-Testautos mit einer Fußgängerin, dürfen dann nicht passieren.

  • Mit Stereo-Kameras nimmt Daimler ein dreidimensionales Bild der Umgebung auf. (Bild: Daimler)
  • Neuronale Netze erkennen in den Aufnahmen die unterschiedlichen Objekttypen, wie Fußgänger, Fahrzeuge oder die Fahrbahn. (Bild: Daimler)
  • Fußgänger werden dann detailliert analysiert, um ihre mutmaßliche Bewegungsrichtung zu erkennen. (Bild: Daimler)
  • Entwickler Jascha Freess erläutert, wie sich das autonome Auto in einer belebten Straße orientiert. (Bild: Daimler)
  • Uwe Franke hat die Bilderkennung bei Daimler von Anfang an mit aufgebaut. (Bild: Friedhelm Greis/Golem.de)
  • Mit Hilfe neuronaler Netze lassen sich auch Lidar-Aufnahmen klassifizieren. (Bild: Friedhelm Greis/Golem.de)
  • Aus der 3D-Punktwolke wird eine Darstellung mit den unterschiedlichen Objekten. (Bild: Friedhelm Greis/Golem.de)
  • Die Sensorfusion führt die Daten zusammen und erzeugt ein kohärentes Umgebungsbild. (Bild: Daimler)
  • Auf der Teststrecke in Immendingen lassen die Entwickler die Autos selbstständig fahren. (Bild: Daimler)
  • Dabei müssen sie in der Lage sein, alle Fahrsituationen sicher zu beherrschen. (Bild: Daimler)
Mit Stereo-Kameras nimmt Daimler ein dreidimensionales Bild der Umgebung auf. (Bild: Daimler)

Daimler und Bosch entwickeln die erforderliche Hard- und Software weitgehend selbst. Das gilt sowohl für die Sensorauswertung und die Sensordatenfusion als auch für die Fahrwegplanung. Als Kooperationspartner für die schnelle Steuereinheit wurde – ebenfalls in der vergangenen Woche – der US-Chiphersteller Nvidia präsentiert. Auf dessen Plattform Drive PX Pegasus sollen die Billionen an Rechenoperationen in jeder Sekunde durchgeführt werden, die für das autonome Fahren erforderlich sind. Je mehr Schichten ein "tiefes" neuronales Netz hat, desto mehr Rechenleistung ist nötig.

Von Pixeln zu Stixeln

Eine große Rechenleistung braucht es auch deswegen, weil die Kooperationspartner auf ein komplexes Sensorsystem mit Kamera, Lidar und Radar setzen. Vor allem die Kameras liefern viele Rohdaten, die nicht über den Fahrzeugbus zum Zentralrechner geschickt werden können. Um die Datenlast zu reduzieren, hat Daimler das sogenannte Stixel-Konzept entwickelt, mit dem das Bild von ein bis zwei Millionen Pixeln in wenige Hundert Stäbe (Sticks) reduziert wird. Die Stixel repräsentieren unterschiedliche Objekte im Verkehrsraum, beispielsweise Verkehrsteilnehmer, Fahrbahn, Straßenschilder, Bäume und andere Gegenstände.

Entscheidend für das autonome Fahren ist nun, dass das Fahrzeug diese Objekte richtig klassifizieren kann. Schon jetzt setze Daimler bei der automatischen Fußgängererkennung seiner Assistenzsysteme auf neuronale Netze, sagt Uwe Franke, Leiter der Abteilung Bildsemantik bei Daimler. Inzwischen verfügten die neu entwickelten Netze über 24 Millionen Neuronen mit 128 Millionen Gewichten, die an Millionen Bildern lernen könnten.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
Mühsame Klassifizierung von Objekten 
  1. 1
  2. 2
  3. 3
  4.  


PiranhA 23. Jul 2018

Das reicht doch für den Anfang schon mal. Ein Auto verlässt sich ja auch nicht alleine...

FreierLukas 21. Jul 2018

Denkt einfach immer an die bevorstehende Singularität. Ein Mensch brauch ewig um sich zu...

s33 21. Jul 2018

Ne, das stimmt schon so. Oliveeer meint wahrscheinlich die Einträge der Kovarianzmatrix...



Aktuell auf der Startseite von Golem.de
Blaupunkt Ring im Test
Ein Ring, sich zu knechten

Der Blaupunkt Ring ist wesentlich günstiger als die Konkurrenz und zeichnet Sport, Puls, Schritte und Schlaf auf. Mit Android hat er aber aktuell seine Probleme.
Ein Test von Tobias Költzsch

Blaupunkt Ring im Test: Ein Ring, sich zu knechten
Artikel
  1. Monitore: LG produziert OLED-Panel mit 240 oder 480 Hz in Masse
    Monitore
    LG produziert OLED-Panel mit 240 oder 480 Hz in Masse

    Der Bildschirm kann je nach Bildfrequenz entweder 4K oder 1080p darstellen. Vertriebspartner sollen damit ihre eigenen Monitore anbieten.

  2. Thermonator: Ein Roboterhund mit Flammenwerfer auf dem Rücken
    Thermonator
    Ein Roboterhund mit Flammenwerfer auf dem Rücken

    Ja, ein US-Unternehmen bietet wirklich einen fernsteuerbaren Roboter mit Flammenwerfer und Laservisier an. Kaufen sollte das niemand.

  3. Windows-10-Nachfolger: Gründe für und gegen Windows 11
    Windows-10-Nachfolger
    Gründe für und gegen Windows 11

    Das Supportende von Windows 10 rückt näher und Windows 11 bietet sich als Alternative an. Wir zeigen Argumente für und gegen den Wechsel auf.
    Eine Analyse von Oliver Nickel

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • MacBook Air über 200€ günstiger • MediaMarkt: Asus Gaming-Laptop 999€ statt 1.599€ • Galaxy S23 400€ günstiger • MindStar: Radeon & Geforce-Grafikkarten zu Tiefstpreisen • Anker USB-Ladegeräte -45% • MSI MEG 342CDE OLED 999€ • Gamesplanet Spring Sale [Werbung]
    •  /