Fans der Iron Man-Filme kennen die Szenerie. Technikfreak und Superheld Tony Stark tüftelt wieder einmal an einer neuen Erfindung und wirbelt dabei dreidimensionale Objekte durch den Raum. Was das mit Auto zu tun hat? Jede Menge, zumindest, wenn in die Bedienkonzepte von übermorgen blickt wie jüngst auf der CES 2017 in Las Vegas. Übermorgen, das bedeutet im Jargon der Ingenieure in München, Tokio, Stuttgart und Detroit, dann, wenn die Fahrzeuge voll autonom unterwegs sind, also deutlich nach 2021. Spaß und wegweisend ist es trotzdem, sich in diesen Cockpits Platz zu nehmen. Zumal einiges von dem, was in der Glücksspiel-Metropole präsentiert wurde, auch in Serie kommt.

So zum Beispiel BMWs Gestensteuerung, die im 7er Premiere feierte. Das Konzept haben die Münchner jetzt einen, nein zwei Schritte weiter gedacht. "HoloActive Touch" heißt die das Konzept für die autonom fahrenden Autos. Der Name ist Programm: Scheinbar frei im Raum schwebende Bedienelemente werden wie ein Knopf betätigt. Sobald die Aktion ausgeführt ist, spürt man einen Widerstand, ähnlich, wie bei den analogen Tasten. Möglich macht das eine Kombination von 258 Ultraschall-Lautsprechern, wie sie im PDC verwendet werden, die Wellen aussenden, einer herkömmlichen Gestenkamera und einem Display plus übergelagerter Scheibe, das den 3D-Effekt kreiert. Im BMW-Cockpit der Zukunft kann auch das ganze Armaturenbrett als Display genutzt werden. Damit ein luftiges Gefühl aufkommt ist die Instrumententafel aber viel weiter als heute von den Passagieren entfernt. Es sind ja ohnehin keine Schalter mehr da. "Mit dieser Technik wollen wir die Bedienelemente und die Information zu den Passagieren bringen", sagt die Ingenieurin Sonja Rümelin.

Einen ähnlichen Pfad beschreitet der Zulieferer Bosch mit "Ultra Haptics", das von einem Start Up Unternehmen im englischen Bristol entwickelt wurde. Auch hier zeichnet eine Kamera die Bewegung der Hand auf, Ultraschall-Aktuatoren initiieren die Rückmeldung und OLEDs sorgen für gestochen scharfe Grafiken im Cockpit. Innovative Tüftler fassen zunehmend in der Autobranche Fuß: Das russische Start-Up Way Ray hat ein Head-Up-Display entwickelt, das die gesamte Windschutzscheibe nutzt als Projektionsfläche nutzt. Das eröffnet Möglichkeiten für die Bedienung: Mit der Technik können visuelle Elemente scheinbar 15 Meter vor das Auto projiziert werden. "Theoretisch wäre auch unendlich’ machbar", sagt Entwickler Vitaly Ponomarev. Der Kniff hinter der Projektion ist eine spezielle Folie, die sich zwischen den beiden Scheiben befindet. Details werden natürlich nicht verraten, aber schon nächstes Jahr soll das System in einem nichteuropäischen Auto verbaut werden.

Personalisierte Anzeigen

Auch bei VW werden Informationen per Head-Up-Display in Zukunft quasi vor das Auto "geworfen". Durch die eine Staffelung der Anzeigen schaffen die Niedersachsen Prioritäten: Navigations-Elemente befinden sich scheinbar auf der Straße, während zum Beispiel Infotainment-Anzeigen näher an der Windschutzscheibe sind. Im Innenraum des Autos generieren die Niedersachsen eine dreidimensionale Anmutung der Bedienelemente durch zwei hintereinander angeordnete Bildschirme. Durch die Räumlichkeit soll sich der Fahrer schneller zurechtfinden. Garniert wird das Ganze durch "Eye Tracking" - erst wenn der Fahrer auf den Bildschirm blickt, werden gezielt grafische Elemente angezeigt. Konzentration auf das Wesentliche heißt es auch bei Mercedes: Auf den Touch-Monitoren sollen zukünftig nur die Informationen zu sehen sein, die der Fahrer in dem speziellen Moment auch benötigt. Das soll die Bedienung nennenswert vereinfachen, die in den vergangenen Jahren immer komplexer geworden ist.

Ein weiteres Thema, dass die Autobauer umtreibt, sind personalisierte Anzeigen und Bedienmöglichkeiten. Die Passagiere sollen ihren Mikrokosmos, ihren gewohnten digitalen Lebensraum mit ins Fahrzeug nehmen. Hyundai arbeitet mit dem amerikanischen Software-Unternehmen Cisco zusammen und lässt das Auto, das Smartphone und andere technische Geräte miteinander verschmelzen. Bei allen Herstellern spielt in Zukunft die Sprache eine ganz wichtige Rolle. VW bindet Amazons Siri-Version "Alexa" in die Bedienung ein.

Damit geben sich Honda und Toyota nicht zufrieden. Die Japaner setzen auf die menschliche Komponente der Technik. Toyota integriert sogar einen Assistenten namens "Yui", der die künstliche Intelligenz des Autos nutzt, in das Bedienkonzept der Studie "Concept-i". "Yui" soll mit dem Fahrer kommunizieren und so die Bedienung intuitiver machen, während Hondas autonom fahrender Prototyp "NeuV" sogar auf die Emotionen der Menschen reagiert. "Der NeuV lernt vom Fahrer, erkennt die Emotionen hinter den Entscheidungen und verwendet diese Informationen für die nächsten Fahrentscheidungen", erklärt Chef-Entwickler Yoshiyuki Matsumoto. Nissan setzt bei der Sprachbedienung auf Microsofts "Cortana"-Technologie. "Nissan entwickelt keine Technologie um ihrer selbst willen. Auch halten wir die besten Technologien nicht nur für Luxus-Modelle vor", verdeutlicht Renault-Nissan-Chef Carlos Ghosn und setzt auf eine nahtlose Interaktion zwischen Mensch und Maschine.