Optische Technologien ermöglichen autonomes Fahren
Hamamatsu Photonics: Autonomes Fahren ist das wichtigste Mobilitätsthema der kommenden Jahrzehnte. In allen Aspekten des Fahrzeugs gibt es neue Herausforderungen zu bewältigen, aber es eröffnen sich auch neue Möglichkeiten. Derzeit sind Fahrzeuge mit Level 1, assistiertem Fahren, und Level 2, Teil-Automation, verfügbar. Zum assistierten Fahren nutzt das Fahrzeug einen Abstandsregeltempomat, deshalb wird diese Stufe auch „ohne Füße“ genannt, weil Gas geben, Bremsen und Schalten automatisch passieren. Beim teil-automatisierten Fahren übernimmt zusätzlich der Spurhalteassistent die seitliche Führung. Deshalb wird diese Stufe auch „ohne Hände“ genannt, weil der Fahrer das Lenkrad (zumindest zeitweise) loslassen kann.
Im nächsten Schritt wird es Fahrzeuge mit bedingter oder hoher Automation geben. Diese Stufe heißt auch „ohne Hinschauen“, weil das System die meisten Situationen allein meistert und der Fahrer in dieser Zeit zum Beispiel auf dem Smartphone oder Tablet anderen Tätigkeiten nachgehen kann. Diese Automationsstufe wird aktuell von beinahe allen Fahrzeugherstellern beworben und soll schon ab 2020 in ersten Fahrzeugen verfügbar sein. Ein besonderes Augenmerk liegt dabei auf der Übernahmezeit, die der Fahrer braucht, um in einer kritischen Situation von seiner anderen Tätigkeit zurück zu kehren und die Fahrzeugführung wieder zu übernehmen.
Die letzte Phase, die noch am weitesten in der Zukunft liegt, ist die vollständige Automation im Level 4, auch „Kopf aus“ genannt. Mit anderen Worten: Es ist kein Fahrer mehr notwendig. Diese Stufe ist die kritischste von allen, da das Gefährt sämtliche sicherheitsrelevanten Fahrfunktionen selbst überwachen und sämtliche unvorhersehbaren Situationen allein bewältigen muss. Noch komplizierter wird die Lage dadurch, dass sich in Zukunft Fahrzeuge mit unterschiedlichen Automationsstufen auf der Straße bewegen werden. Für den Prozessor, also das Gehirn, eines automatisierten Fahrzeugs wäre es einfacher, wenn ausschließlich Fahrzeuge mit Vollautomation unterwegs wären, weil diese dann untereinander kommunizieren könnten und wüssten, wie die anderen reagieren.
Selbst wenn bereits geeignete Fahrerassistenzsysteme existieren, wird beim vollautomatisierten Fahren für jede Funktion eine Redundanz erforderlich sein. Dabei sollen jeweils zwei verschiedene Technologien verwendet werden, um die Ausfallwahrscheinlichkeit auf nahe null zu senken. Zu den wichtigen Funktion gehören der 360°-Rundumblick und die Positionierung des Fahrzeugs, wozu Radar, LIDAR, Kameras und GPS parallel genutzt werden müssen.
Hamamatsu Photonics stellt optische Halbleiter für LIDAR Systeme her. LIDAR steht für den englischen Begriff „Light Detection And Ranging“ (Licht Detektion und Abstandsmessung). Bei dieser Technologie werden kurze infrarote Laserimpulse ausgesendet, um anschließend die Zeit zu messen, bis sie von einem Objekt reflektiert und vom Detektor wieder empfangen werden. Da die Lichtgeschwindigkeit bekannt ist, kann man über die Zeit auf den Abstand rückschließen. Die Technologie wird daher auch „Time of Flight“ (Flugzeit), kurz TOF, genannt. Um solche ultrakurzen Lichtimpulse zu erzeugen werden infrarote gepulste Laserdioden eingesetzt; um das reflektierte Licht zu detektieren werden Photodioden-Arrays oder Avalanche-Photodioden-Arrays verwendet. LIDAR Systeme ermöglichen es, ein 3D Profilbild der Umgebung zu erstellen. Im Grunde wird bei dieser Technologie die Natur nachgeahmt: Fledermäuse nutzen sehr ähnliche Methoden, um sich in ihrer Umgebung zu orientieren; sie verwenden lediglich akustische statt optischer Wellen. Das Äquivalent zum Gehirn des Tieres ist in diesem Fall der Prozessor des LIDAR-Systems, bei dem ein Algorithmus anschließend die Objekte in der Umgebung erkennen und klassifizieren kann, beispielsweise Autos, Fahrradfahrer, Fußgänger oder statische Objekte wie Laternenpfähle oder geparkte Autos. Die Geschwindigkeit und Fahrtrichtung von Objekten wird dabei ebenfalls erfasst. Die Klassifizierung ist alles andere als trivial, und ebenso wie in der Natur ist ein großer Lernaufwand und viel Erfahrung vonnöten, bis das Fahrzeug sich als fehlerfrei einstufen lässt. Fehlerfrei bedeutet beim automatisierten Fahren beispielsweise, dass das Auto keine Notbremsung durchführen darf, wenn ein Fußgänger nur nahe an der Straße wartet, dass es aber unbedingt eine Notbremsung machen muss, wenn der Fußgänger auf die Straße rennt.
Das automatisierte Fahren in seinen verschiedenen Phasen erfordert außerdem weitere optische Technologien, nicht nur für die Rundumsicht. Optische Lenksensoren können ein Redundanzsystem für magnetische Sensoren darstellen. Sie sind darüber hinaus sehr unempfindlich gegenüber elektromagnetischen Feldern, eine Eigenschaft, die bei Elektrofahrzeugen an Bedeutung gewinnt. Die Verfassung des Fahrers kann mittels eines speziellen TOF-CMOS-Bildsensors mit Infrarotbeleuchtung überprüft werden, was nicht nur für die Erkennung von Müdigkeit hilfreich ist, sondern auch, um beispielsweise im „ohne Hinschauen“-Modus zu bestimmen, wie viel Zeit der Fahrer benötigen wird, um die Kontrolle über das Fahrzeug wieder zu übernehmen.
Bei der vollständigen Automation wird schließlich die höchste Priorität auf die Passagiere des Fahrzeugs und somit das Interieur gelegt, einen Fahrer gibt es dann nicht mehr. Multimediageräte nehmen dann zum Beispiel an Bedeutung zu und im Auto können die Geräte mittels Lichtwellenleiter sowie optischer Freiraumkommunikation miteinander sprechen. Zudem werden Fahrzeuge für eine optimierte Interaktion und Verkehrsführung in Zukunft miteinander, sowie mit der umgebenden Infrastruktur kommunizieren. Diese Technologie nennt sich „V2X“ (Vehicle to X) Fahrzeug-zu-Fahrzeug oder Fahrzeug-zuInfrastruktur-Kommunikation. Neben WLan wird auch optische Datenübertragung verwendet, mit Hilfe derer intelligente Straßen und Städte entstehen. All diese optischen Technologien werden unter dem Begriff Photonik zusammengefasst, und Hamamatsu Photonics ist seit über einem halben Jahrhundert der führende Anbieter auf diesem Gebiet.