目錄
IMU的標定
相機的標定
激光雷達和組合慣導標定
相機和激光雷達標定
傳感器數據融合
多傳感器融合數據處理
傳感器數據融合算法
環境感知與預測
應用實例——車道線識別
應用實例——車輛行人識別
應用實例——交通標志識別
定位系統
基于慣性導航儀的定位技術
基于視覺的導航定位技術
基于激光點云SLAM的定位技術
多傳感器融合定位技術
IMU的標定
確定車輛坐標系
z軸指向車頂垂直于地面向上 y軸指向車輛前方 x軸指向車輛右側。 原點位于車輛后輪軸的中心。
選擇筆直的道路,讓車輛沿著道路直行一段距離。 采集IMU的數據。 分析IMU輸出軌跡和車輛沿Y軸前進的軌跡。 計算IMU在車上的外參,即繞坐標軸的角度偏移量。
相機的標定
相機標定涉及: 內參(如焦距、主點位置、畸變系數) 外參(包括相機坐標系與世界坐標系之間的旋轉矩陣和平移向量)兩方面的確定。
相機外參標定: 指相機坐標系與世界坐標系之間的旋轉矩陣和平移向量的確定
相機坐標系轉化為世界坐標系就像把照片上的點換算成實際位置一樣
相機坐標系-圖像坐標系
激光雷達和組合慣導標定
激光雷達和組合慣導的標定過程涉及使用手眼標定方法獲得外參初始值。
優化拼接的方法對外參進行優化
相機和激光雷達標定
相機和激光雷達聯合標定通過參照物位置姿態信息反向計算外參矩陣,關鍵在于準確初始外參值和選擇合適標定場地。
傳感器數據融合
多傳感器數據融合利用計算機技術綜合多個傳感器信息進行決策和估計,經過傳感系統搭建、數據采集、預處理、特征提取、融合算法計算分析和輸出目標特征信息等步驟。
硬件層融合難度: 攝像頭、激光雷達和毫米波雷達之間在硬件層面很難融合,因為毫米波雷達分辨率低,無法確定目標大小和輪廓,但可以在數據層上進行融合,比如目標速度估計、跟蹤軌跡等。
攝像頭和激光雷達的數據融合: 傳統方法包括Bayes濾波、自適應引導圖濾波、傳統的形態學濾波等,而基于深度學習的傳感器數據融合算法是目前較多采用的方法。
硬件層融合: 傳感器廠商(如禾賽和Mobileye)利用傳感器的底層數據進行融合。
數據層融合: 各種傳感器生成各自獨立的目標數據,主處理器融合這些特征數據來完成感知任務。
任務層融合: 首先各傳感器完成感知或定位任務,然后在任務完成后添加置信度進行融合。