Technik für autonomes Fahren

Nur gemeinsam schaffen es die Sensoren

Autonomes Fahren Foto: Mercedes-Benz

Um autonom zu fahren, benötigt ein Auto viele Sensordaten. Kameras, Radarsensoren und Laserscanner müssen die menschlichen Sinne ersetzen. Nur zusammen geht es voran.

Egal ob Sehen, Hören, Fühlen oder Riechen – auf sich allein gestellt sind unsere Sinnesorgane nie so erfolgreich wie im Verbund. Kaum ist beim Schnupfen die Nase dicht, schmeckt auch das Schnitzel nicht mehr, und mit verbundenen Augen bewegen wir uns selbst in gewohnter Umgebung tastend ziemlich verloren. Das geht auch modernster Hightech so: Obwohl Autos mit Radar, Laser und Kameras ausgerüstet die Umgebung schon ziemlich gut wahrnehmen können, kann erst die intelligente Vernetzung aller Sensoren den Durchbruch beim autonomen Fahren bringen. Anfang der kommenden Dekade wollen die Kooperationspartner Mercedes-Benz und Bosch das autonome Fahren zur Serienreife bringen. Die ganze Technik sprichwörtlich unter einen Hut zu bringen, ist allerdings eine Mammut-Aufgabe.

Foto: Audi
Autos müssen auch miteinander kommunizieren.

Die eigentliche Sensorik ist kein Hexenwerk mehr: Die Kamera zeichnet ein Bild der Umgebung auf, der Radarsensor schickt elektromagnetische Wellen aus und fängt die Reflektionen wieder ein, und beim Laserscanner sind es Lichtstrahlen, die von der Umgebung zurückgeworfen werden. Jede Technik hat dabei ihre Vor- und Nachteile: Das Radargerät arbeitet bei jedem Wetter, misst Abstand und Geschwindigkeit und kann sogar unter Autos durchschauen, erkennt aber keine Farben und tut sich auch mit der richtigen Zuordnung von Formen schwer. Laserscanner vermessen die Welt hochgenau in 3D, sind aber sehr teuer und haben Probleme bei Regen und Nebel. Und die Kamera hat eine große Reichweite und kann Farben erkennen, funktioniert aber ebenfalls bei Nebel und Verschmutzung nicht und unterliegt optischen Täuschungen. Außerdem kann sie nur Objekte kennen, die zuvor klassifiziert wurden.

Klassifizieren heißt, dem Kamera-System muss beigebracht werden, was es da sieht. Deep Learning nennen die Wissenschaftler diese Disziplin der künstlichen Intelligenz, bei dem einem Computer – salopp gesagt – so lange auf zigtausenden von Beispielbildern demonstriert wird, was ein Auto, ein Fußgänger, ein Lkw, ein Radler, ein Baum, ein Straßenschild, ein Haus ist, bis er es irgendwann von selbst erkennt. Dann aber ist die Technik in der Lage, auf einem aufgezeichneten Bild binnen Millisekunden alle möglichen Objekte und Hindernisse zu erkennen – und sich an ihnen zu orientieren oder ihnen auszuweichen.

Das gleiche Verfahren machen sich die Experten inzwischen auch bei der Laser- und Radar-Technik zu Nutze. Zwar erkennen die Lichtstrahlen und elektromagnetischen Wellen selbstständig verschiedene Objekte. Für die Bestimmung, um was es sich handelt, sind aber auch hier sogenannte neuronale Netze nötig, also Algorithmen, die das jeweilige Steuergerät anlernen. So gelangt menschliche Intelligenz in den Computer, denn: All’ die Beispielbilder wurden von Menschenhand kategorisiert und jedes einzelnen Fahrzeug, jeder Passant und jeder Strauch "beschriftet".

Ohne menschliches Zutun ist auch keine Weiterentwicklung der Technik möglich, selbstlernend sollen die Systeme nämlich auf keinen Fall sein. Sonst besteht die Gefahr, dass sich jedes Auto auf einem anderen Wissensstand befindet und die Hersteller nicht mehr garantieren können, welche Fähigkeiten ein Wagen hat und welche nicht. Über regelmäßige Updates kann aber der Kenntnisstand der Software fortlaufend verbessert und die Trefferquote bei der Erkennung immer weiter erhöht werden. Die ist schließlich Voraussetzung dafür, dass sich das Auto selbst zurecht finden kann. Genau hier kommt auch die Zusammenarbeit der einzelnen Systeme ins Spiel: In dem die erkannten Informationen überlagert werden, entsteht zum einen Redundanz. Das heißt, was der eine Sensor übersieht, wird wahrscheinlich vom anderen entdeckt. Und durch den Abgleich der klassifizierten Objekte wird sicher gestellt, dass es sich bei dem Radler wirklich um einen Radler handelt und der Baum ein Baum ist, der nicht plötzlich auf die Straße springen kann.

Autonomes Fahren bei Bosch und Daimler Foto: Mercedes-Benz
Mit einer Handvoll autonomer Shuttles wollen Mercedes und Bosch die Technik unter realistischen Bedingungen erproben

Zusammen mit den vorhandenen Daten des Navigationssystems, die dem autonomen Auto die grobe Richtung vorgeben, errechnet die Technik aus der Umfeld-Beobachtung dann den optimalen Fahrweg – der so genau wie möglich eingehalten werden soll. Dafür ist bei Lenkung, Gasbefehl und Bremse höchste Präzision nötig, und ständig müssen die Fahrparameter angepasst werden. Wie ein menschlicher Fahrer, muss schließlich auch der Computer auf plötzlichen Regen, Bodenwellen oder schlechten Asphalt reagieren. Vor allem aber ist ein doppelter Boden nötig: Fällt ein Bremssystem aus, springt sofort die Ersatz-Technik ein, ebenso ist es bei der Lenkung.

Der Fahrer dagegen wird endgültig überflüssig. Wie sich das anfühlt, erfahren ab Mitte 2019 Probanden in Kalifornien: Mit einer Handvoll autonomer Shuttles wollen Mercedes und Bosch die Technik unter realistischen Bedingungen erproben – und geben damit gleich einen Ausblick auf den ersten Einsatz autonomer Autos: Bevor wir alle nämlich ein selbstfahrendes Auto in der Garage haben, werden sich zunächst fahrerlose Taxifahrer auf unseren Straßen breit machen, die sich nur in einem genau definierten Bereich bewegen.

Neues Heft
FA Titel 01 2019
01/2019 14. Dezember 2018 Inhalt zeigen
Who is Who Pkw
Who is Who Flottenmarkt

Das Nachschlagewerk für alle Flottenmanager.

Beliebte Artikel Volvo XC90 Automatisches Notrufsystem Was Sie über E-Call wissen sollten Kamerabasierte Tempowarner unzuverlässig Hersteller räumen Schwächen ein
Terminübersicht
firmenauto Terminkalender Flottentermine

Finden Sie Veranstaltungen, Seminare, Messen und Trucksport-Events in Ihrer Region.