Wenn man durch die Pressemitteilungen der Automobilbauer blättert, kommt man unweigerlich zum Schluss, dass nur noch eine Frage der Zeit ist, ehe die Robo-Autos ohne Fahrer über die Straßen rollen. BMW will 2021 mit dem i Next ein autonomes Fahrzeug auf die Straße bringen. Auf Nachfrage klären die Münchner auf: "Level drei". Das bedeutet, dass das Auto selbsttätig den Blinker setzt, die Spur wechselt und überholt. Vor allem auf Autobahnen. Vom Level fünf, also ohne Lenkrad überallhin, ist das noch weit entfernt. "Schauen wir mal, ob das so kommt", schmunzelt ein Geschäftsführer eines Zulieferer-Unternehmens, das Technik für die führerlosen Autos liefert, auf diese Jahreszahl angesprochen. "Die Technologie ist so jung, dass es heute verwegen wäre, zu sagen, wann Level fünf des autonomen Fahrens erreicht wird. Vor allen Dingen weltweit", sagt Elmar Frickenstein, der bei BMW das autonome Fahren vorantreibt.
Die Technologie, mit der die selbstfahrenden Autos in jeder Situation das Richtige tun sollen, ist hochkomplex und noch einige Jahre von der Serienreife entfernt. Der Schritt vom autonom Fahren des Levels drei zum der höchsten Stufe ist ein gewaltiger. Derweil testen Audi, Ford & Co. eifrig selbstfahrende Autos, die tausende Kilometer abspulen. Viele in Kalifornien, manche in Nevada und von BMW bald auch in München. Doch ein entscheidendes Merkmal lassen die ganzen optimistischen Wasserstandsmeldungen der Erprobungen und Meilensteine noch aus: Die Frage in welcher Umgebung diese Tests stattfinden. Im sonnigen Kalifornien mit guten Straßen und keinem Winter sind die Voraussetzungen ideal. In Kairo oder Mumbai schaut die Sache schon ganz anders aus - selbst für Level drei.
Schon das Befahren einer Autobahn, stellt für die Software eine echte Herausforderung dar. GPS ist zu ungenau, also müssen verschiedene Indizien her, blaue oder grüne Schilder, baulich getrennte Fahrbahnen, die Abstände der Leitpfosten, der Verkehr, der mehrspurig in eine Richtung fließt und auch hinterlegte Bilder eines Autobahnverkehrs. Der Datentransfer und die benötigte Rechenpower sind immens. "Ein Fahrzeug wird in den nächsten Jahren nicht in der Lage sein, komplett alleine denken zu können. Es braucht Hilfe von außen. Sonst wird das Auto überfordert sein", verdeutlicht die Leiterin der ZF-Denkfabrik, Malgorzata Wiklinska. Diese Unterstützung könnte von einer Infrastruktur kommen, die mit dem Fahrzeug kommuniziert. Aber die das kostet Geld und viele Jahre, die aufzubauen.
Bis alle Autos untereinander (Car2Car) und mit der Infrastruktur (Car2X) kommunizieren werden noch Jahre vergehen. Für die Tüftler der künstlichen Intelligenz kommt das Auto heutzutage in eine "unsaubere" Gegend, weil die fast alle anderen Fahrzeuge von Menschen gesteuert werden, so schwerer berechenbar sind und vor allem nicht mit dem Robo-Auto sprechen. Das künstliche Gehirn und seine Sinne sprich Sensoren und Kameras muss mit verschiedenen Problemen innerhalb von Sekundenbruchteilen alleine fertig werden: querender Verkehr, Motor- und Fahrräder, die zickzack laufen, Fußgänger, die zwischen Autos hervorspringen und Verkehrsteilnehmer, die sich im dunklen Schatten befinden. Dazu kommen Ladezonen für Lkws und, und, und. Dafür müssen Unmengen von Daten verarbeitet und aus Ihnen sozusagen einen Sinn erkennen - das macht das Deep Learning aus.
Experten gehen von 25 bis 30 Jahren aus, ehe die Autos die höchste Stufe des selbsttätigen Fahrens erreichen. "Das alles bis 2021 hinzubekommen, geht nicht", bestätigt Elmar Frickenstein. Damit Autos auch im übelsten Blech-Gewirr voll-autonom fahren, zu können, ist neben hochauflösenden Kameras, Radar- und möglichst vielen Ultraschall-Sensoren ein Computer-Gehirn nötig, das diese Informationen auch einzuordnen weiß. Deswegen drehen autonom agierende Auto zunächst in Städten mit einem möglichst berechenbaren Verkehrsfluss ihre Runden. Aufgrund der vielen Einbahnstraßen und dem relativ gleichmäßig fließenden Verkehr eignen sich auch US-amerikanische Großstädte, wie New York oder kleinere, wie Pittsburgh.
Andere Logik
Die Herausforderung ist: Die Fehlertoleranz bei den Entscheidungen, die das autonomfahrende Vehikel trifft, muss gegen null gehen. Denn es geht dabei letztendlich immer um die Sicherheit sämtlicher Verkehrsteilnehmer. Das macht die Aufgabe umso anspruchsvoller. Der Weg dem Maschinen-Hirn künstliche Intelligenz einzubläuen, ist steinig. Und das ist noch untertrieben. "Wir erziehen die Software wie ein Kind und sagen, wann es auf welche Situation, wie zu reagieren hat", sagt Nvidias Automotive-Chef Danny Shapiro. Dabei wird der "Heranwachsende" mit Millionen von Bildern gefüttert und das richtige Verhalten einprogrammiert. Diese Entscheidungen werden dann in riesigen Datenbanken gespeichert. Immer wieder werden Verkehrssituationen durchgespielt und Menschen überwachen, ob die Software auch richtig reagiert. Das Ziel ist, das das Auto anhand von erlernten Mustern ähnliche Situationen perfekt löst. "Diese Muster sind nichts anderes als die menschliche Intuition", erklärt Michael Fausten, der bei Bosch das autonome Fahren verantwortet.
Die Programmierlogik dieser Software unterscheidet sich grundlegend vom altbekannten "wenn", "dann", wie wir es heute kennen. Das bedeutet, dass der Mensch dem Auto für jeden Fall eine Lösung vorgibt und diese im System hinterlegt. Das kann beim autonomen Fahren und der unglaublichen Vielzahl von Situationen, die im Straßenverkehr tagtäglich vorkommen, nicht klappen. "Künstliche Intelligenz hat den Vorteil, aufgrund von erlerntem Wissen, ähnliche Verkehrssituationen zu erkennen", verdeutlicht Dr. Gerhard Gumpoltsberger, Leiter des Innovationsmanagements bei ZF, der gemeinsam mit Nvidia am autonomen Fahren tüftelt. Schließlich hängen von dem Können des Robo-Piloten Menschenleben ab. "Es ist ein großer Unterschied, ob Sie künstliche Intelligenz in einem Consumer- oder sicherheitsrelevanten Bereich anwenden, wie das Auto und der Verkehr das sind", macht Michael Fausten klar.