多传感器融合定位之技术综述

您所在的位置:网站首页 梵蒂冈地图位置世界地图 多传感器融合定位之技术综述

多传感器融合定位之技术综述

2023-04-17 22:18| 来源: 网络整理| 查看: 265

一、定位基本要求

1、汽车会收集当前环境的信息,并和已知地图对比,推断它在世界上的位置. 简而言之, 自动驾驶定位技术就是解决“我在哪儿”的问题, 并且对可靠性和安全性提出了非常高的要求.2、自动驾驶中定位的要求: 精确度达到10 cm及以下, 车载传感器可用于估计本地测量值和给定地图之间的转换.

二、多传感器融合误差分析

在多传感器融合系统中,来自多个传感器的数据通常要变换到相同的时空参照系中。但由于存在量测误差直接进行变换很难保证精度来发挥多传感器的优越性,因此在对多传感器数据进行处理时需要寻求一些传感器的配准算法,但配准误差也随之而来。

1、传感器的误差,也就是传感器本身因制造误差带来的偏差;2、各传感器参考系中量测的方位角、高低角和斜距偏差。通常是因量测系统解算传感器数据时造成的误差;3、相对于公共坐标系的传感器的位置误差和计时误差。位置误差通常由传感器导航系统的偏差引起,而计时误差由传感器的时钟偏差所致;4、各传感器采用的定位算法不同,从而引起单系统内局部定位误差;5、各传感器本身的位置不确定为融合处理而进行坐标转换时产生偏差;6、坐标转换的精度不够,为了减少系统的计算负担而在投影变换时采用了一些近似方法(如将地球视为标准的球体等)所导致的误差由于以上原因,同一个目标由不同传感器定位产生的航迹基于一定的偏差。 这种偏差不同于单传感器定位时对目标的随机量测误差,它是一种固定的偏差(至少在较长时间段内不会改变)。 1、对于单传感器来说,目标航迹的固定偏差对各个目标来说都是一样的,只是产生一个固定的偏移,并不会影响整个系统的定位性能。2、 而对于多传感器系统来说,本来是同一个目标的航迹,却由于互相偏差较大而被认为是不同的目标,从而给航迹关联和融合带来了模糊和困难,使融合处理得到的系统航迹的定位精度下降,丧失了多传感器处理本身应有的优点

三、传感器融合分类

1、紧耦合

紧耦合需要把图像特征加入到特征向量中,最终得到位姿信息的过程。由于这个原因,系统状态向量最终的维度也会非常高,同时计算量也很大。

图像拿出特征点,然后通过残差项来优化传感器信息,【当中涉及原始数据】)

2、松耦合

图像通过特征点估算出位姿,然后和imu结合统一优化位姿【当中不涉及原始数据】

四、常见的配准方案

1、空间点匹配

迭代最近点是空间点配准的经典方法。这里的空间点包括二维或三维欧式空间中的点集。1、K-D 树通过树型结构来描述空间点的分布,可被用来加速最近邻点的查找2、点到点间的距离也并非衡量当前配准好坏程度的唯一准则.如,Yang 等 采用点到面(point-to-plane)的距离减少迭代的次数,加快了收敛速度; Segal 等 提出面到面(plane-to-plane)距离的解决方案,提高了配准的精度及鲁棒性,代表当前发展的高水准3、迭代最近点方法一个公认的缺点是对初始值有较大的依赖性4、迭代最近点通常用于场景与模型相差不大或可以提供较为可靠初始值的环境中,主要担当配准细化的任务 .迭代最近点还有很多细致的研究,包括 Turk 等 通过均匀采样进行控制点选取以减少计算量, Zhang 等 [38] 采用设定阈值的方法对错误匹配进行剔除, Godin 等 根据点间距离为对应点赋予不同的权重以平衡对应点的重要性,Fitzgibbon 等 直接采用非线性优化方法对问题进行求解,并通过实验验证其与基于解析求解的方法具有相当甚至更好的效果等

2、图像配准

1、图像配准是根据拍摄的图像信息对摄像机的运动状态进行估计,这一技术在计算机视觉领域又常被称为视觉里程计2、基于特征的图像配准过程一般包括特征检测、特征匹配以及运动估计 3 个步骤

五、已有的定位解决方案

1、GPS 定位: 精度太低: 1-3 m; 更新速度慢: 10次/s; 容易受到遮挡物的影响, 检测到的卫星数量很少.2、惯性传感器: 利用加速度计和陀螺仪, 根据上一时刻的位置和方位推断现在的位置和方位, 即航迹推测. 惯性导航和GPS可以结合起来使用, 惯性导航可以弥补GPS更新频率低的缺陷, GPS可以纠正惯性导航的运动误差. 但是, 如果是在地下隧道或者其他信号不好的地方, GPS可能无法及时纠正惯性导航的运动误差.3、雷达: 利用RADAR 和LIDAR, 记录道路外观的图像, 测量车辆到静态物体如建筑物,电线杆,路缘的距离, 将传感器的点云数据与高精地图储存的特征进行匹配, 并实现车辆坐标系与世界坐标系之间的转换, 确定最有可能位于的位置.4、摄像头: 利用摄像头, 记录道路外观的图像, 将摄像头的数据与地图进行匹配, 确定最有可能位于的位置

1、基于视觉定位

视觉定位是指用车载摄像头拍摄环境图像,跟已知的地图元素做对比或以递推方式计算车辆位置的定位方式,可分为绝对定位和相对定位。

其中实现绝对定位的素材来源主要有三类:①地面印刷物,包括路政部门在道路地面上印刷的车道线、斑马线、导流带、地面文字、地面图标等,只要没有施工涂改或使用磨损,这种语义特征是非常稳定的;②空中语义对象,包括道路上空的道路标牌、交通标识、红绿灯等,这些装置的位置基本固定而且语义信息明确,也非常适合做定位;③街景,相对来说没有前两种方法主流。

再来看视觉相对定位,也就是现在比较流行的vSLAM(视觉同步定位和建图)和VO(视觉里程计)。这两个词常常一起出现,前者包含后者,一般讨论中都以vSLAM代替,其主要特点是提供后端的回环和优化,但车辆正常行驶时,开出去以后短时间内几乎不会再回到之前去过的地方,回环的用途并不是很大,所以视觉定位中主要使用的还是VO。

1、vSLAM和VO的理论基础是多视图几何,从上图中可以看出,相机从不同位置拍摄同一个物体得到的图像一定是相似而略有区别的。通过图像处理方法,可以找到两张图像中一一对应的特征点。当匹配的特征点数量足够时,通过求解单应矩阵或本质矩阵即可求得两个相机之间的旋转和平移关系,旋转和平移合称变换。当相机连续采集的数据构成一个视频序列时,求解两两帧之间的变换并组合起来即可得到一条从起始位置出发到当前位置的轨迹。2、由于得到的是相对轨迹,SLAM本身并不能直接完成定位任务,还需要和绝对定位做融合。可以将其他传感器的数据放到SLAM框架中作为额外约束,也可以将视觉观测或里程计的局部关系作为约束输出给其他定位框架

视觉定位的一般流程可分为四步:摄像头采集图像、图像预处理、提取图像特征或提取语义、用多视图几何和优化方法求解位姿。视觉定位任务中的摄像头需要考虑多种硬件因素。比如,为了让视觉算法在夜间也能运行,可选用红外相机、星光相机,甚至热成像相机;为了覆盖不同的视场范围,可选用广角镜头、鱼眼镜头、全视相机等;车载摄像头有多种安装位置和多种数量配置,用于定位任务的主要是前视单目或前视双目。

摄像头拍摄到多个语义对象,就相当于“观测”到多个卫星信号,当语义对象的数量足够且在空间中分布比较均匀时,就能获得较好的定位效果。

2、雷达定位

1、雷达有很多种,目前主流用于车辆定位的是激光雷达。AGV或机器人定位导航中常用的是二维激光雷达,可将其定位原理简单理解为上方有一束激光向下照射,下方是一个镜子不断旋转将激光转为横向扫描,激光打在不同距离物体上返回时间不同,据此就可以在扫描平面上获得外围环境的轮廓。不过,在自动驾驶领域,用的最多的还是三维激光雷达

2、激光雷达定位可分为有图定位和无图定位两类

有图定位分为建图和用图两个步骤:建图时将点云逐帧叠加在车辆的运行轨迹上即可获得点云地图。这里所说的轨迹,可以是高精度组合惯导系统输出的轨迹,也可以是点云SLAM输出的轨迹。点云直接建图很可能生成体积特别巨大的点云文件,原始点云地图并不适合大范围使用。有的团队在点云压缩方面做出了卓有成效的改进,例如Civil Maps号称可以将1TB的点云数据压缩到只有8MB。这个压缩比非常惊人,想必涉及了大量和场景相关、目标相关的工程技巧。建立点云地图后,在该点云地图上对每一帧点云运行NDT、ICP等匹配算法就能获得当前车辆的准确位置。再来雷达定位中的无图定位,和视觉里程计类似,将点云两两帧之间匹配并组合后可以构造一个点云里程计实现相对定位,例如开源软件Autoware里的点云定位模块。也可以提取点云的平面特征和角点特征做匹配,构建点云特征里程计实现定位,例如开源算法LOAM



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3