1. Direkte Flugzeit (dToF):
Beim Time-of-Flight-Ansatz nutzen Systemhersteller die Lichtgeschwindigkeit, um Tiefeninformationen zu generieren. Kurz gesagt, gerichtete Lichtimpulse werden in die Umgebung abgefeuert, und wenn der Lichtimpuls ein Objekt trifft, wird er von einem Detektor in der Nähe der Lichtquelle reflektiert und aufgezeichnet. Durch die Messung der Zeit, die der Strahl benötigt, um das Objekt zu erreichen und zurückzukehren, kann der Objektabstand bestimmt werden, während bei der dToF-Methode der Abstand eines einzelnen Pixels ermittelt werden kann. Die empfangenen Signale werden schließlich verarbeitet, um entsprechende Aktionen auszulösen, wie z.B. Fahrzeugausweichmanöver, um Kollisionen mit Fußgängern oder Hindernissen zu vermeiden. Diese Methode wird als direkte Flugzeit (dToF) bezeichnet, da sie auf die genaue "Flugzeit" des Strahls bezogen ist. LiDAR-Systeme für autonome Fahrzeuge sind ein typisches Beispiel für dToF-Anwendungen.
2. Indirekte Flugzeit (iToF):
Der indirekte Time-of-Flight (iToF) Ansatz ist ähnlich, aber mit einem bemerkenswerten Unterschied. Die Beleuchtung einer Lichtquelle (üblicherweise ein Infrarot-VCSEL) wird durch ein Ausweichblatt verstärkt und Impulse (50% Arbeitszyklus) werden in ein definiertes Sichtfeld abgegeben.
Im nachgeschalteten System löst ein gespeichertes "Standardsignal" den Detektor für einen Zeitraum aus, wenn das Licht nicht auf ein Hindernis trifft. Unterbricht ein Objekt dieses Standardsignal, kann das System anhand der resultierenden Phasenverschiebung und der Zeitverzögerung des Impulszugs die Tiefeninformationen jedes definierten Pixels des Detektors ermitteln.
3. Active Stereo Vision (ASV)
Beim "Active Stereo Vision"-Verfahren beleuchtet eine Infrarot-Lichtquelle (üblicherweise VCSEL oder IRED) die Szene mit einem Muster und zwei Infrarotkameras nehmen das Bild in Stereo auf.
Durch den Vergleich der beiden Bilder kann nachgeschaltete Software die benötigten Tiefeninformationen berechnen. Lichter unterstützen Tiefenberechnungen, indem sie ein Muster projizieren, selbst auf Objekte mit wenig Textur wie Wände, Böden und Tische. Dieser Ansatz ist ideal für die hochauflösende 3D-Erfassung von Robotern und fahrerlosen Transportfahrzeugen (FTS) zur Hindernisvermeidung.