Haben Sie schon einmal etwas von der Stixelwelt gehört? Das ist im Techniker-Sprech die Kombination aus Stäben und Pixeln. Beim autonomen Fahren wird diese Darstellungsform gewählt, um die Umgebung eines Automobils effizient und zuverlässig abbilden zu können. Schließlich liefert eine neue Kamera zwei Millionen Pixel pro Bild. Bei 20 Bildern pro Sekunde, kann man sich vorstellen, welche Datenmengen alleine in diesem Zeitraum bewegt werden. Aus diesen zwei Millionen werden beim Roboterauto 1.000 Stixel, die zudem noch klassifiziert werden: Blau für Autos, Grün für Vegetation, Rot für Menschen und Dunkelrot für Fahrräder, Pink für die Straße und Magenta für Gehwege, während Grau für Gebäude steht.

Diese Klassifizierung der einzelnen Objekte reicht nicht; es geht auch um die Erkennung, die "robuste Detektion", wie die Ingenieure sagen und um die zuverlässige Definierung der Bewegung. "Bei der Erkennung haben schon große Fortschritte gemacht", Jascha Freess, dessen Fachgebiet die Musterkennung sowie Kameras sind und zeigt auf den Monitor, der in dem Prototypenfahrzeug montiert ist. Kleine Pfeile zeigen die Bewegungsrichtung der Menschen und selbst Personen, die hinter parkenden Autos stehen, werden zuverlässig erkannt. Das alles geschieht innerhalb von Millisekunden. Doch das reicht natürlich längst nicht aus. Schließlich kann das autonome Fahren nur dann durch ein Zusammenspiel aller Sensoren erreicht und um der Datenmenge, die bei dieser Sensorfusion anfällt, Herr zu werden, ist die Rechenleistung von sechs High-End-Gaming PC nötig. Doch ohne eine gute Datenbasis nützen selbst die besten Computerchips nichts. Schließlich ist das automatisierte Fahren in der Stadt die Königsdisziplin.

Damit das klappt, muss auch der gute alte Radarsensor weit mehr leisten, als bisher. "Beim, Radar findet ein Paradigmenwechsel statt. Weg vom Erkennen, dass da was ist, hin zum was es genau ist", sagt Markus Hahn. So misst der Sensor auch Reflexe und schaut unter Autos durch. Anhand der Achsen und der Radkästen erkennt das System, dass es sich um ein Auto oder einen Lkw handelt und nicht um einen Radfahrer. In einem Bild sind hundert Million klassifizierte Radarreflektionen. Deswegen erkennen die Radarsensoren auch Fußgänger, die sich in einer Entfernung von bis zu 90 Metern befinden. Ohne den Homo Sapiens, also ohne menschliche Hilfe geht das natürlich nicht. Beim Konzept des "Deep Learning" wird dem Computer wie einem Kind beigebracht, wie die verschiedenen Pixelhaufen beziehungsweise Daten zu interpretieren sind. Die Idee, dass autonome Autos per se selbst lernen werden, verweisen die Entwickler übrigens ins Reich der Fabel: "Dann hätte ja jedes Fahrzeug einen unterschiedlichen Software- beziehungsweise Wissensstand und wir bekommen die Meute nicht mehr eingefangen", macht Uwe Franke, der sich bei Mercedes mit dem autonomen Fahren beschäftigt, klar. Deswegen kann so ein "Update" zunächst nur über einen zentralen Server an alle selbstständig agierenden Fahrzeuge vorgenommen werden. Irgendwann werden die Autos miteinander kommunizieren, um wie eine Schwarmintelligenz voneinander zu profitieren.

Exakte Umsetzung nötig

Ergänzt werden diese Daten durch die Ergebnisse des Lidar-Sensors (Light Detection and Ranging / Lichterkennung und Entfernungsmessung), der einen Winkel von 360 Grad abdeckt. auch bei diesem Sensor versuchen die Software-Tüftler aus jedem Bildpunkt das Optimum heraus zu kitzeln. "Wir messen Distanzen und Intensitäten", erklärt Lidar-Fachmann Philipp Lehner. Zum Beispiel reflektiert ein Verkehrsschild das Lidar-Signal deutlich intensiver, als etwa ein schwarzes Auto. Damit leistet auch dieser-Sensor weit mehr als nur eine simple Darstellung des Ist-Zustands, und zwar eine Entschlüsselung einer dreidimensionalen Punktewolke zum Verständnis einer Szene. Die Techniker bezeichnen das als "Semantische Punktewolke", in der jeder Punkt seine Klassifizierung hat, also: Weg, Auto, Straße, Mensch. Da der Lidar-Sensor zentimetergenau die Entfernung misst, hilft dies auch bei der Erkennung einer Bewegung. Mit dieser ganzen Sensoren-Armada, zu der auch Kameras gehören, sollen die Robo-Autos der Zukunft Fußgänger und andere Verkehrsteilnehmer so lange es geht verfolgen, um dann sicher und vorausschauend zu agieren.

Damit der Computer auch versteht, ist eine sehr leistungsfähige Soft- und Hardware nötig. Die Rechenleistung entspricht in etwa der von sechs High-End-Gaming PCs. Dass beim autonomen Fahren präzise Fahrmanöver, die auch unter widrigen Bedingungen, wie zum Beispiel schlechte Straßen oder Seitenwind, unabdingbar sind, wird oft übersehen. Die Anweisungen des künstlichen Gehirns können noch so gut sein, wenn das Robo-Auto sie nicht exakt umsetzt, können die Auswirkungen fatal sein.