Rückblende: Wir waren mit dem Audi A7 auf der A9 zwischen Ingolstadt und Nürnberg unterwegs. Der Reiseverkehr stellte den Autopiloten auf harte Nagelproben. Prompt verwirrten auf Stoßstangen aufgeklebte Geschwindigkeitsbegrenzungen, die Markierungslinien einer Autobahnausfahrt und die Wildwest-Fahrweise der anderen Verkehrsteilnehmer das System und der Mensch musste eingreifen. Doch diese Fehler sind weder alarmierend noch außergewöhnlich, sie sind Teil des langen Lernprozesses der Maschinen bis zum perfekten Autofahrer.

Der Computer muss vorausschauendes Fahren lernen

“Deep Learning” heißt das im Computer-Deutsch. Dieses Konzept ist dem menschlichen Gehirn nachempfunden: Die Eltern erklären dem Sprössling auf die Frage “Was ist das”, welches Objekt da gerade zu sehen ist – angefangen vom Elefanten bis zum Polizeiauto. Das Gleiche passiert mit den Super-Computern, die lernen, Pixelhaufen zu Bildern zusammenzusetzen. “Wenn wir Grafikprozessoren weiterentwickeln, dann machen wir aus dreidimensionalen Bildern zweidimensionale. Beim autonomen Fahren ist es genau umgekehrt”, sagt Danny Shapiro, Automotive-Chef des amerikanischen Grafik-Spezialisten Nvidia.

Die Hardware für das autonome Fahren ist vorhanden: Kameras plus Radarsensoren sind die Augen des Autos. Die Frage ist nur, wie aus den Daten, die diese Sensoren sammeln, Fahrzeuge und schließlich Menschen werden. Zum Beispiel scannt die Kamera hinter der Frontscheibe den freien Bereich vor dem Auto und sobald ein anderes Objekt in diese Fläche eindringt, soll es eindeutig zugeordnet werden. “Free Space Calculation”, heißt das in der Fachsprache. Wenn also eine Pkw-Tür aufgeht, muss der Computer das blitzschnell erkennen und dementsprechend reagieren, etwa die Geschwindigkeit reduzieren oder zumindest die Verzögerung und das Ausweichmanöver vorbereiten, weil ein Mensch gleich auf die Straße treten könnte. Also alles das, was ein erfahrener Autofahrer intuitiv macht und in als “vorausschauendes Fahren” bezeichnet wird.

Eine Billion Rechenoperationen pro Sekunde

Dies alles muss dem Auto-Piloten wie einem Kind oder einem Fahrschüler beigebracht und in die Software integriert werden. “Wenn ein Reh nie programmiert wurde, erkennt es der Computer nicht”, erklärt Danny Shapiro das Prozedere. Dass es eine immense Arbeit ist, diese ganzen Szenarios durchzuspielen, dürfte klar sein. Deswegen dauert es noch rund zehn Jahre, bis das autonome Fahren Level fünf – also überall – Realität sein wird. “Ich glaube nicht, dass es von heute auf morgen möglich sein wird, jedes Szenario in der Stadt darzustellen”, stellt Thomas Müller, Leiter Entwicklung Brems-, Lenk- und Fahrerassistenzsysteme bei Audi klar. Doch die Beteiligten arbeiten mit Hochdruck daran, auch das zu schaffen. Bei Nvidia steht ein gigantisches Rechenzentrum für das Deep-Learning-Programm, in dem alle Daten und Erkenntnisse gespeichert werden.

Damit ein Auto führerlos agieren kann, muss jedes nur erdenkbare Verkehrsszenario eindeutig eingeordnet werden. Das heißt: Der Computer muss es kennen. Denn die Kameras nehmen auch Fußgänger auf, auch solche die zur Hälfte von Autos verdeckt sind und die Software soll ihre Absichten zuverlässig interpretieren. Zum Beispiel: Bleibt der Mensch stehen oder bewegt er sich und wenn ja, wohin? Die dafür benötigte Rechenleistung ist gigantisch. Der fingernagelgroße Nvidia-Tegra-X1-Prozessor schafft eine Billion Rechenoperationen pro Sekunde – das entspricht einer Zahl mit zwölf Nullen. Und die nächste Chip-Generation wird das sicher noch um den Faktor X toppen.

Schwarmintelligenz

Auf der Straße folgt der Erkennungs-Prozess strengen Gesetzen: nach den Pixeln werden Kanten identifiziert, die werden dann gruppiert und schließlich zu einem Objekt zusammengefügt. Wenn die Software ein solches erkannt hat, schaut immer ein Mensch darüber und prüft, ob das Gebilde richtig identifiziert wurde. Schließlich ist es ein Unterschied, ob ein Laster vor einem steht oder ein Kleinwagen. Wichtig ist auch zu wissen, ob ein Krankenwagen von hinten kommt und man eine Rettungsgasse freimachen muss oder ob die Polizei mit Blaulicht im Rückspiegel höflich um eine Verkehrskontrolle bittet. Dann heißt es rechts ran und stehen bleiben.

Wenn alles passt, wird das Ergebnis dem Erfahrungsschatz der Maschinen hinzugefügt und in die Software integriert. So bekommt das Computer-Hirn nach und nach die Fähigkeit, sich selbst zu verbessern. Hat das System die Aufgabenstellung gelöst, soll es seine Erfahrung in einer vernetzten Welt mit den anderen autonomen Autos teilen – das entspricht dem Konzept der Schwarmintelligenz. Das Lernen der Software wird immer komplexer, um alle Aufgaben des Straßenverkehrs sicher zu lösen. Wenn auf der Autobahn eine lange Schlange von Autos hinter einem Lkw herfährt, ist die Wahrscheinlichkeit groß, dass bald einer ausschert. Der Weg zum echten autonomen Fahren ist lang, aber es wird kommen, denn die Computer lernen Tag und Nacht. Denn sie werden nicht müde.