一、地图投影的判别与选择(论文文献综述)
王振远[1](2021)在《基于PDR和地图匹配的室内定位方法研究》文中研究表明
韩东[2](2021)在《基于高精地图的视觉定位技术的研究》文中认为定位是无人驾驶中的关键技术,如何利用低成本传感器在复杂环境中实现高精度定位是一个很有挑战性的问题。无人驾驶中的定位问题,就是通过传感器感知周围环境信息,为无人车提供六自由度的位姿。激光雷达被认为是无人驾驶中最可靠的传感器,由于激光雷达成本较高,使其不能大规模使用;全球定位系统(GPS)通过接收卫星信号为无人车提供精准位姿,然而GPS信号容易受到外界环境干扰,在某些特定场景中定位偏差较大。视觉传感器成本相对较低,是无人驾驶中最合适的传感器,但是视觉定位算法容易受到光照变化的影响,并且利用视觉传感器定位会产生累积误差且无法消除。针对上述问题,本文主要完成了以下工作:针对复杂场景中,特别是复杂光照条件下,视觉定位算法容易失效的问题,本文提出了基于生成对抗网络的视觉信息预处理算法,不仅可以将黑夜场景中的驾驶环境转换为白天可见场景,而且通过在模型中加入基于语义的损失函数,有效的保证转换前后两组图像语义的一致性。针对视觉定位中会产生累积误差且累积误差无法消除的问题,本文提出了基于点云地图的视觉定位算法。采用GPS、IMU和激光雷达构建高精度三维点云地图,利用张量投票算法推理点云地图中的有效几何信息,然后与视觉点云地图融合,消除累计误差。为了充分利用视觉语义信息,本文提出了基于语义的视觉定位算法,利用视觉语义信息辅助定位。对于上述两个问题,我们分别在公开数据集与实际场景中测试验证算法的有效性。实验结果表明,基于生成对抗网络的视觉信息预处理算法可以对复杂光照条件下的图像进行转换,转换之后的图像特征点提取数量增加76%,特征点匹配率提高6%;基于点云地图的定位算法能够有效降低累积误差,累计误差平均降低63%,并且通过加入语义信息辅助视觉定位,可以明显提高视觉定位精度,定位精度提高较原始算法提高58%。
孙欣成[3](2021)在《室内场景下的移动机器人视觉建图与路径规划》文中进行了进一步梳理随着机器人技术和智能控制技术的迅速发展,移动机器人的地图构建与路径规划在工业生产、智能家居等领域得到了广泛应用,逐渐成为了人们生产生活中的重要组成部分。在移动机器人地图构建领域,视觉传感器具有成本低、场景辨识能力高等优势,成为了获取环境信息的主要途径。同时随着移动机器人需求的逐渐扩大,人们对移动机器人的智能水平有了更高的要求,因此需要对其进行深入研究。本文以室内场景下移动机器人的视觉导航为应用背景,基于视觉和机器人操作系统对移动机器人的地图构建与路径规划进行了相关研究,主要工作如下:全向移动机器人视觉导航系统搭建。以小型全向移动机器人搭建硬件平台,以Linux操作系统和机器人操作系统搭建软件平台;建立移动机器人与深度相机坐标系,并对相机进行内外参和深度对齐标定;同时对麦克纳姆轮运动学模型进行求解,实现对移动机器人的全向控制。基于视觉地图构建和目标检测算法,设计了一种移动机器人地图构建与定位方法。首先利用视觉地图构建算法建立环境稀疏点云地图,并通过点云处理方法将其转化为半稠密点云地图和八叉树地图,然后投影至平面生成栅格地图用于移动机器人导航。同时使用目标检测算法对环境路标进行识别并将其信息映射至地图中。移动机器人通过地图导航时,利用路标当前位置与历史位置的差值对移动机器人位置进行矫正,提高其定位稳定性。基于全局路径规划算法和图形学算法,设计了一种移动机器人弯道路径平滑处理方法。首先利用全局路径规划算法规划初始全局路径,然后判断路径的大幅度转弯处并在初始路径的基础上应用Bresenham画圆算法进行路径优化,提高移动机器人在弯道处的的通过速度与平稳性。基于搭建的全向移动机器人视觉导航系统进行实验验证。在数据集和具体实验环境中,对设计的移动机器人地图构建与定位方法、路径优化算法分别进行了实验验证,实验结果证明了所设计方法的有效性和可行性。
任珂[4](2021)在《面向空气污染的时空多变量数据可视分析》文中提出近年来,空气污染成为危害人类健康的重大环境问题,改善空气质量的关键之一在于区域协同治理和污染物联合防控。无论是从大气科学的角度研究模拟模型,还是从数据科学的角度挖掘空气污染大数据模式和特征,仅依靠单一的学科理论和手段难以提供全面的解决方案。而且,模型中存在不可避免的不确定性,污染数据集规模大、复杂度高,这些都为空气污染的协同分析带来巨大的挑战。因此,引入交叉学科思想,充分结合传统模型的科学性和新一代人工智能方法的特征分析能力,可为分析空气污染的时空分布、污染传输的不确定性以及潜在污染源演化规律提供新的研究思路和解决方案。本文以空气污染数据和后向轨迹模型为研究对象,以可视化和数据挖掘理论为基础,提取大数据中蕴含的污染模式和异常事件,量化后向轨迹模型的不确定性,并在两者基础上研究集成数据特征和科学模型的潜在污染源识别方法,从“时间-空间-多变量”三个角度分析空气污染及污染源的演化规律,最终设计并开发多视图协同的可视分析系统,提高空气污染感知效率,实现交互式挖掘数据中蕴含的知识和空气污染现象。主要内容和创新点如下:(1)提出针对空气污染潜在模式与异常的可视分析方法和系统。空气污染监测数据是一种典型的时空多变量复杂数据,仅使用独立的量化指标或算法难以实现数据的渐进式挖掘,据此提出可视分析系统探索数据中的模式与异常。为了创建可识别多变量信息的数据可视空间,提出复合最小二乘投影算法,有效减少投影过程中的信息损失,实现多变量分布的快速感知。其次提出多变量模式提取和时空联合异常检测方法,识别常规模式并揭示隐藏的多种异常事件。在此基础上,设计针对常规模式和异常的可视化图标,总结丰富的背景信息并追踪不同的时变状态。通过对空气污染监测数据的应用案例研究,证明该方法和系统能够引导用户交互式探索污染物的关联模式,快速发现污染变化异常的时期或地区,以及分析污染的周期性时变趋势和城市群协同变化规律。(2)提出针对后向轨迹模型不确定性与运动趋势的可视分析方法和系统。后向轨迹模型是一种操作简单且应用较广的空气污染溯源模型,但是模拟轨迹处于三维地理空间,运动趋势难以观察,并且模型的不确定性在分析过程中常被忽略,据此提出可视分析系统解决这些问题。首先基于变分自编码器和长短期记忆网络模型,提出三维轨迹深度表示方法,有效度量轨迹的形状相似性,提升对与时空无关运动趋势的发现能力。在此基础上,量化轨迹集合模拟的不确定性,并分析不确定性与地理位置的潜在关联。设计三维轨迹可视化图标和视图,清晰展示轨迹的三维运动趋势以及对比地理邻域内的不确定性分布。本文将该方法和系统应用于空气污染后向轨迹模型,展示模拟轨迹运动趋势并量化模型的不确定性,分析不确定性与地理邻域、天气系统等外在因素间的潜在关联,并结合交互式视图探索不确定性产生的原因。(3)提出针对潜在污染源识别及演化的可视分析方法和系统。目前基于后向轨迹模型的污染溯源方法精度较低,同时不同污染物、不同时期的污染源分布差异不容忽视,据此提出融合数据特征的可视分析方法探索潜在空气污染源。基于后向轨迹模型和空气污染大数据特征,提出耦合污染传输及共现关系的潜在污染源识别方法,建立动态的多污染物、多关系地理网络。在此基础上,提出网络地理分布特征相似性度量方法,提取污染源协同分布模式并评估模式的重要性。设计多层级的污染源可视化图标和多视图协同分析框架,实现后向轨迹模型和数据特征在识别污染源时的交叉验证,最终探索污染源分布模式和多变量时序演化规律。本文在真实数据集和合成数据集上开展对比实验,验证了方法在数据投影、模式提取和特征学习上的有效性和准确性,通过多个应用案例证明了可视分析系统在探究空气污染问题上的实用性。基于对时空多变量空气污染数据的可视分析方法研究,从交叉学科的角度分析污染分布规律、传输不确定性以及污染源演化等问题,为空气污染的“靶向治疗”和减排决策提供方向支持和科学依据。
王烁[5](2021)在《基于单目视觉的大范围场景定位与建图技术研究》文中研究表明单目视觉传感器由于无法直接测量场景深度,难以提供环境几何结构、尺度先验,仅靠基于图像特征的几何测距方法在大范围场景中定位时容易发生尺度漂移,并且难以进行稠密的场景地图构建。本文提出利用基于深度学习的单目深度估计方法来恢复单目彩色图像对应的场景深度,以取代传统几何测距方法;并将深度估计作为场景测量先验融合到视觉里程计中,以克服传统定位方法无场景深度测量下的尺度漂移现象,得到高精度定位结果;最后将二者融合进行基于八叉树存储的稠密场景地图构建,弥补单目视觉难以稠密重建的缺陷。本文设计并实现了一套包括单目深度估计——单目定位——建图过程的完整系统。具体研究内容如下:(1)本文提出联合光流辅助的尺度约束单目深度估计算法。使用位姿真值参与训练解决尺度模糊问题,引入尺度一致性损失函数保证帧间结果尺度一致;利用预训练光流网络筛选图像动态区域,提高自监督训练稳定性以提升结果精度。(2)本文提出融合深度估计的视觉定位方法。提出基于光流跟踪的特征匹配方法、基于对极几何的动点剔除策略以提高视觉特征稳定性;提出基于深度一致性的最大化期望位姿优化算法,抑制深度估计噪声,提高定位精度;提出自适应基线选择策略,以优化算法在不同尺度深度估计输入时的表现。(3)本文实现了基于八叉树的大范围场景稠密重建算法。采用超像素聚类算法处理高噪声深度图,采用快速地图形变算法维持全局地图的一致性,实现基于深度估计的单目稠密重建。本文方法仅需要未标记的单目图像输入,但在深度估计精度、定位性能均能够媲美双目立体视觉系统,同时弥补了单目视觉大范围场景稠密重建能力。本文在KITTI数据集及现实数据进行的大量实验证明了所提出的算法框架的优越性。
戴玮辰[6](2021)在《面向有效纹理稀缺场景的视觉定位与建图方法研究》文中指出近年来,有着30多年研究历史的视觉定位与建图技术发展十分迅速,相关成果被广泛用于机器人、混合现实与自动驾驶等领域。视觉定位与建图技术不仅能实时推算传感器自身的运动,还能构建三维地图。此外,视觉定位与建图技术不依赖外部定位系统,能工作在未知环境中。因此,视觉定位与建图成为了无人自主系统的关键技术之一。在本文中,视觉定位与建图技术主要指视觉里程计(Visual Odometry,简称VO)与基于视觉的同时定位与建图(Visual Simultaneous Localization and Mapping,简称视觉 SLAM)。在理想的场景中,已有的视觉定位与建图方法能提供优异的导航性能,但在更为苛刻且多变的场景中,面临鲁棒性不足与精度不佳的问题。造成这些问题的原因主要有两点:首先,在一些场景中,由于可见光相机无法提供充足的纹理信息,基于可见光相机的视觉定位与建图方法无法提供精确的定位结果。我们将这类场景称之为可见光纹理稀缺场景。其次,传统视觉定位与建图技术基于静态场景假设(Static World Assumption),但是该假设无法适用于存在移动物体的动态场景。在动态场景中,相机视野中出现的移动物体会导致图像中静态纹理被移动物体遮挡,造成相机无法提供充足的静态纹理信息,最终导致视觉定位与建图方法鲁棒性不足。我们将这类场景称之为静态纹理稀缺场景。虽然上述的两类场景不同,但是造成视觉定位与建图方法性能不佳的根本原因是相同的。在这些场景中,相机难以稳定提供充足且有效的纹理信息。因此,我们将上述两类场景并称为有效纹理稀缺的场景。针对上述问题,本文深入研究了有效纹理稀缺场景下的视觉定位与建图方法,提出了两种解决方法:1)提出基于点间相关性的分割方法,来区分静态场景与移动物体的信息;2)通过多光谱传感器,实现跨模态信息的融合。通过这两个解决方法,视觉定位与建图可以克服有效纹理稀缺的问题,完成更为鲁棒且精确的定位建图。实验证明,所提出的方法均能较好地达成预期的目标,获得鲁棒且精确的估计结果,具体研究的创新成果如下:·面向静态纹理稀缺的场景,提出了一种新的分割方法,该方法不依赖语义信息,不局限于特定传感器,仅利用地图点之间的相关性,来分割不具有运动一致性的地图点。随后,基于所提出的分割方法提出了 一种面向动态场景的RGB-D SLAM方法。该方法能够去除动态场景中移动物体的干扰,仅采用静态的地图点,来进行位姿估计与静态地图构建,从而保证了同时定位与建图的鲁棒性与精度。该方法不仅能克服快速移动物体的干扰,同时还能利用地图中的历史信息,来进一步消除缓慢移动物体对估计的影响。实验证明,在低动态与高动态场景下,所提出的算法均能取得高精度的估计结果,提高视觉定位与建图方法在静态纹理稀缺场景下的鲁棒性。·面向静态纹理稀缺的场景,提出了一种基于视觉同时完成定位、建图与移动物体追踪方法。在动态环境中,该方法利用上一章提出的分割方法,来分割获得动静点,并利用获得的动态点,来追踪移动物体。通过维护静态点与移动物体点,不依赖语义信息,所提出的方法可以同时构建静态地图和估计相机位姿,并且构建移动物体空间结构和估计移动物体位姿。实验证明,所提出的方法不依赖先验信息,仅通过基于点间相关性的分割方法与重合校验,即可完成移动物体的追踪,同时提供较为鲁棒的相机位姿估计结果。·面向可见光纹理稀缺的场景,提出了一种不依赖对极匹配的多光谱信息融合里程计方法,能够融合多光谱传感器的信息,来完成位姿估计。在不基于对极匹配的情况下,该方法能挖掘相机测量信息中所蕴含的空间一致性,同时利用固连传感器的运动一致性,来实现多光谱传感器信息的跨模态融合。实验证明,在不使用对极匹配的情况下,所提出的方法可以给出恢复尺度信息的位姿估计结果,并且可以构建半稠密的三维多光谱地图。
李明珠[7](2021)在《基于机器视觉的自动驾驶安全预警系统设计与实现》文中进行了进一步梳理随着国家经济的持续增长,人民的生活水平不断提高以及交通运输条件进一步完善,国务院要求发展“无人驾驶交通工具”等新前沿技术,进行基础研发,构筑“自动驾驶车辆”等新兴智能终端产业体系和政策环境。因此,自动驾驶相关技术成为全国研究的热点。而安全预警系统能使自动驾驶车辆提前察觉潜在的危险,对可能发生的交通事故进行预警,从而确保自动驾驶车辆的安全行驶。所以,安全预警系统是车辆自动驾驶系统的重要组成部分,是自动驾驶车辆安全平稳行驶的前提。自动驾驶安全预警系统是指在环境传感器获得的环境信息基础上,确定本车所处位置并感知本车周围环境,结合自动驾驶车辆的驾驶意图和车辆运动模型,保证自动驾驶车辆的安全行驶。现有自动驾驶安全预警技术中的环境感知模块主要采用超声波雷达、激光雷达、毫米波雷达、红外探头、摄像头等传感器识别目标,并测量目标与车辆之间的距离。超声波雷达、毫米波雷达、红外探头无法准确识别目标,而激光雷达产生的三维点云数据量巨大,目前的计算设备无法实现实时高精度匹配,因此摄像头是当前可采用的最佳传感器。为此,本文深入研究基于双目视觉的临撞预警和基于机器视觉的车道偏离预警两种技术,并将其融合于高精度定位系统中,实现自动驾驶车辆的安全预警。对于自动驾驶车辆的定位系统,现有算法会累计在测量时产生的传感器噪声和运动模型在预测阶段自身生成的噪声,使得自动驾驶车辆的定位误差随着车辆行驶距离的增加而增大。并且GPS需要从至少四颗卫星接收信号,因此仅使用GPS进行自动驾驶车辆精准定位的方法受到限制。对于自动驾驶车辆的临撞预警系统,现有算法多是运用激光雷达获取自动驾驶车辆的周围环境信息,因而这种方法的成本过高。对于自动驾驶车辆的车道偏离预警系统,现有的算法虽能对车道偏离发出及时的告警,但是这些方法需要设置大量参数,并且对算力要求较高。针对以上问题,本文的主要工作如下:(1)设计并实现自更新地图传感定位系统。本文使用扩展卡尔曼滤波算法处理来自不同传感器的数据,进行数据融合,生成精确的位置和姿态数据。当GPS信号可用时,本文使用GPS信号确定自动驾驶车辆的位置;当GPS信号不可用时,本文使用扩展卡尔曼滤波算法,通过GPS信号同步IMU,校正IMU的累计误差,从而获取自动驾驶车辆的位置。此外,本文还使用Haar-Like特征和SVM分类器识别路缘线,交通标志,基座和建筑物位置等,构建街道网络基础地图。(2)设计并实现基于双目视觉的临撞预警系统。首先利用两个摄像机作为传感器,设计双目视觉模型。然后通过ROI的选取兴趣范围,利用支持向量机识别自动驾驶车辆前方的行人及其他可能影响车辆行驶的障碍物。之后提出基于任务的4D车辆检测算法,检测自动驾驶车辆四周的车辆信息。最后提出自动驾驶车辆临撞预警策略,计算碰撞线、紧急制动线、期望跟踪距离线及容许跟踪误差线位置,评定车辆碰撞等级,实现临撞预警。(3)设计并实现基于机器视觉的车道偏离预警系统。本文提出一种新的车道偏离预警算法,名为车道线夹角法。该方法在基于摄像机的车道线识别基础上,通过摄像机的参数,计算自动驾驶车辆的坐标系到图像缓存区坐标系的变化。然后计算在图像缓冲区坐标系中可以表示左侧车道线和右侧车道线的方程。之后通过两个方程求解左右两侧车道线的夹角。最后通过设定阈值,判定自动驾驶车辆是否将会偏离车道,从而实现车道偏离预警功能。(4)本文最后将自更新地图传感定位系统、基于双目视觉的临撞预警系统及基于机器视觉的车道偏离预警系统融合在一起,设计并实现了基于机器视觉的自动驾驶安全预警系统。最终系统实现的测试结果表明,本文所设计的安全预警系统能有效对路标进行视觉定位,对行人和车辆进行精准的检测,对车道偏离给出适时的预警。整体而言,本文设计的基于机器视觉的自动驾驶预警系统鲁棒性好,精确度较高,能够满足自动驾驶车辆安全预警的要求。
杜海镔[8](2021)在《基于可移动物体去除的语义SLAM算法研究》文中研究表明即时定位与建图(Simultaneous Localization and Mapping,SLAM),是指智能体使用传感器获取外部的环境信息,以此估计自身在环境中的位置,并建立已探索区域的环境地图。现有的SLAM算法大部分是基于静态环境的假设进行设计的。在室外环境下建图效果与定位精度较差。且在室外场景中存在大量可移动物体,移动物体会造成位姿估计过程中特征的误匹配,造成定位的偏差,导致算法的鲁棒性较差。因而,需要对现实环境中的动态物体进行处理。本课题针对室外实际道路环境,设计了可移动物体判别算法,并且在加入语义的基础上,增加点云全局特征,作为定位的辅助信息。在保证定位精度的同时提升算法的实时性,使算法在实际环境下更加鲁棒。首先,针对实际场景中存在的可移动物体,本课题根据SLAM中特征提取的特点,分析可移动物体对里程计的影响。基于现有的三维点云语义分割算法,使用物体的速度以及先验移动概率设计出可移动物体判别算法。通过迭代物体的移动概率,去除可移动物体,降低其在SLAM位姿估计以及建图中的影响。其次,人为设计的特征易受观测地点、天气等因素的影响,且去除可移动物体后,观测的特征减少。因此本课题加入点云的语义以及点云全局特征,作为定位辅助信息。语义属于人类理解世界时,抽象出的高层次的特征,不会受到上述因素的影响。本课题在人为设计的特征向量基础上加入物体的类别标签,同时新增三个点云全局特征:每一帧内物体的总数、与激光雷达距离最近的距离、与激光雷达距离最远的距离。加入的新特征使特征向量更加鲁棒,以确保特征减少时,特征匹配的精度。最终,本课题搭建了完整的可移动物体去除的语义SLAM系统,并在KITTI数据集中进行了SLAM算法时效性、准确性等相关定量对比实验,以及建图效果等的定性对比实验。实验结果表明,本课题设计的可移动物体去除的语义SLAM算法,可以在定位精度达到Seg Map同等水平的情况下,实时性能最高提升18.78%,平均提升16.0%。本文提出的可移动物体判别算法,对场景中的动态物体识别准确率,相比于Squeeze Seg的83.2%,达到91.7%。引入的语义信息提升了定位的鲁棒性。本课题提出的算法可以很好的在室外动态场景下运行,建立无动态物体的环境地图。
陆川伟[9](2020)在《基于机器学习的轨迹数据道路提取方法研究》文中研究表明道路数据生产在数字地图制图、地图更新等专业领域和国民生产活动、军事作战活动等实际应用中发挥着十分重要的作用。车辆轨迹数据具有获取容易、使用成本低、更新周期短等优势,并凭借其具备的路网相关性和时空分布特征成为道路数据生产的优质数据源之一。但是传统基于众源车辆轨迹的道路提取研究面临着数据精度不一致、采样间隔不一致、空间分布密度不一致等问题,严重阻碍了基于车辆轨迹数据的道路提取在实际生产实践中的应用。人工智能技术,尤其是机器学习的快速发展为许多专业领域提供了一种全新的解决方案。论文围绕基于车辆轨迹的道路提取面临的数据不一致、算法复杂、算法普适性差等问题,以机器学习领域中的无监督学习聚类和条件生成式对抗网络模型为技术突破口,重点研究了在轨迹数据不一致的情况下,利用机器学习技术增强基于轨迹数据道路提取研究的普适性。论文完成的主要工作和创新点如下:(1)针对多约束条件聚类问题,提出了核距离的相似性度量方法,并改进了一种基于核距离的K-DBSCAN聚类算法。该方法将多约束条件聚类算法中的多输入参数空间上升到高维特征空间,然后基于核函数进行高维特征空间的相似性度量,减少了多约束条件下聚类算法的参数。在此基础上,针对轨迹方向约束的车行道级道路提取问题,进行了距离和朝向约束下的K-DBSCAN车行道级轨迹聚类和基于聚类结果融合的车行道级道路提取。多个城市的实验数据验证了K-DBSCAN算法的高效性和车行道级道路提取的有效性。(2)针对深度学习模型与基于轨迹数据的道路提取相结合的问题,提出将道路提取问题转换为图像生成问题。基于条件生成式对抗网络,提出了一种轨迹密度-道路提取模型。该模型以轨迹点密度图和栅格化道路图为先验知识,同时引入残差网络提出残差U-Net生成器增强模型生成器的图像生成能力,通过“生成-对抗”的不断博弈逐渐生成真实道路图像。在此基础上,提出了一种基于轨迹密度的中心线级道路提取深度学习方法,实验验证了所提模型的有效性。(3)针对基于深度学习的车行道级道路提取问题,提出了一种基于条件生成式对抗网络的轨迹朝向-道路提取模型。该模型通过多尺度感受野判别器增强对图像的多尺度特征感知能力,解决输入图像的高频信息重合问题。在车辆轨迹栅格化转换过程中,针对朝向信息栅格化问题,提出了一种朝向-颜色映射栅格化转换方法,将朝向信息转换到HSV颜色空间。在此基础上,提出了一种基于轨迹方向约束的车行道级道路提取深度学习方法,实验表明该方法对不同的数据源都具有较强的普适性。(4)针对多源数据融合的道路提取问题和高分辨率图像生成问题,提出了一种基于条件生成式对抗网络的车辆轨迹与遥感影像融合的道路提取模型。该模型通过双层深度UNet生成器增强对两种数据源的特征感知和融合,以提高模型的道路生成能力;通过多尺度判别器增强模型的高分辨率图像判别生成能力。在此基础上提出了一种融合车辆轨迹与遥感影像的道路提取深度学习方法,对比实验表明基于数据融合的道路提取结果优于单数据源道路提取结果。
汪梦添[10](2020)在《基于地图信息约束的室内定位技术研究》文中研究指明近年来,随着信息技术的高速发展和智能终端的普及,室内定位技术逐渐成为了研究的热点,在全球范围内有着巨大的市场需求。目前基于智能手机的定位系统多以PDR定位作为主体,然而PDR定位存在误差累积问题,地图信息是室内定位中的重要辅助信息,既可以展示定位结果,也可以作为辅助信息约束定位,因此基于地图信息约束的室内定位技术具有重要的研究价值。本文基于地图信息中的空间信息、结构地图信息和轨迹地图信息为约束信息,对PDR定位技术和WiFi定位技术展开研究,开展基于地图信息的PDR/WiFi融合定位算法研究。首先,通过室内空间信息分别对单一PDR定位和WiFi定位进行约束。针对PDR定位中无法自适应不同速度下计步的问题以及PDR本身误差累积问题,提出自适应阈值步态检测法来提高不同速度下的计步准确性,并且使用室内空间信息对单一PDR定位进行约束。将定位结果与转角和WiFi语义信息、墙线信息这些预置好的信息库进行匹配,修正PDR定位中的误差与航向。针对WiFi定位大范围定位时结果跳变问题,使用空间信息对区域进行划分,提出移动约束法在走廊区域对下一个定位的参考点进行限制来防止定位跳变,并且使用距离约束来自适应WKNN算法的K值。然后,考虑到定位穿墙问题与提升整体定位效果,使用粒子滤波算法融合地图信息与PDR/WiFi进行地图辅助定位,从原始地图直接识别空间墙线矢量信息与粒子进行位置关系判别,去除不符合条件的粒子;将语义信息作为一种观测量融入粒子滤波进行粒子权值约束,代替单一PDR定位时的直接约束。针对传统粒子滤波算法采样不考虑观测信息的问题,将双重重要性粒子滤波算法应用于地图辅助室内定位;针对粒子全体穿墙的覆灭问题,设计了自恢复机制。最后,旨在提升用户体验以及进一步改进精度,使用轨迹地图进行地图匹配进一步约束地图辅助后的轨迹。对于走廊区域,使用点对弧拓扑匹配法将轨迹点投影到预置好的轨迹地图中。对于开阔空间,以行走目的性为前提,使用虚拟路径算法结合虚拟跟踪算法,进行地图匹配。最终基于地图信息整体约束后的定位算法经过实验验证,无论是PDR/WiFi融合地图信息的定位算法还是PDR直接融合地图信息的定位算法平均精度都达到了1.7m以内,并且定位轨迹用户体验更好,不会出现行人穿墙等反常情况。完成了基于地图信息约束的室内定位方案设计,能够满足基于智能手机的室内定位精度需求,可将算法移植到智能手机用于室内定位软件开发。
二、地图投影的判别与选择(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、地图投影的判别与选择(论文提纲范文)
(2)基于高精地图的视觉定位技术的研究(论文提纲范文)
摘要 |
abstract |
第1章 引言 |
1.1 研究背景 |
1.2 研究现状 |
1.2.1 基于生成对抗网络的图像信息预处理 |
1.2.2 高精度点云地图地图生成与特征推理 |
1.2.3 高精度视觉定位 |
1.3 研究内容与章节安排 |
第2章 基于生成对抗网络的视觉信息预处理 |
2.1 引言 |
2.2 像素级的图像变换 |
2.2.1 损失函数定义 |
2.2.2 网络结构 |
2.2.3 网络训练 |
2.3 实验结果分析 |
2.3.1 室内场景分析 |
2.3.2 室外场景分析 |
2.3.3 运行时间分析 |
2.4 本章小结 |
第3章 高精度点云地图生成与特征推理 |
3.1 引言 |
3.2 基于GPS、LiDAR、IMU的高精度点云地图建立 |
3.2.1 IMU预积分 |
3.2.2 LiDAR定位 |
3.2.3 GPS辅助优化 |
3.2.4 实验结果与分析 |
3.3 基于张量投票算法的点云地图处理 |
3.3.1 张量投票基本原理 |
3.3.2 张量投票算法流程 |
3.3.3 实验结果分析 |
3.4 本章小结 |
第4章 高精度视觉定位 |
4.1 引言 |
4.2 基于点云地图的视觉定位 |
4.2.1 问题建模 |
4.2.2 墙面特征提取和匹配 |
4.2.3 位姿求解 |
4.3 基于语义信息的视觉定位 |
4.3.1 系统架构 |
4.3.2 语义分割与特征提取 |
4.3.3 相机位姿优化求解 |
4.3.4 视觉语义点云构建 |
4.3.5 实验结果与分析 |
4.4 本章小结 |
第5章 结论与展望 |
5.1 结论 |
5.2 研究展望 |
参考文献 |
作者简历及攻读学位期间发表的学术论文与研究成果 |
致谢 |
(3)室内场景下的移动机器人视觉建图与路径规划(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 研究背景和意义 |
1.2 视觉SLAM与路径规划的国内外研究现状 |
1.2.1 视觉SLAM |
1.2.2 路径规划 |
1.3 本文研究内容及论文结构 |
2 全向移动机器人视觉导航系统构建 |
2.1 全向移动机器人硬件平台搭建 |
2.1.1 全向移动机器人平台 |
2.1.2 麦克纳姆轮运动学模型 |
2.1.3 深度相机 |
2.2 相机坐标系建立及其标定 |
2.2.1 相机坐标系转换 |
2.2.2 深度相机内外参标定 |
2.2.3 深度对齐标定 |
2.3 系统架构与开发平台 |
2.3.1 系统架构 |
2.3.2 软件开发平台 |
2.4 本章小结 |
3 基于深度学习的视觉导航地图构建 |
3.1 基于YOLO的视觉感知 |
3.1.1 YOLOv5 目标检测算法 |
3.1.2 YOLOv5s网络训练与测试 |
3.2 视觉导航地图构建 |
3.2.1 ORB-SLAM3 算法 |
3.2.2 半稠密点云地图构建 |
3.2.3 八叉树地图构建 |
3.3 实验环境路标获取与映射 |
3.3.1 二维栅格地图构建 |
3.3.2 路标获取与映射 |
3.4 本章小结 |
4 移动机器人导航与路径优化 |
4.1 路径规划算法分析 |
4.1.1 全局路径规划 |
4.1.2 局部路径规划 |
4.2 移动机器人路径优化 |
4.2.1 Bresenham画圆算法 |
4.2.2 弯道路径优化处理 |
4.2.3 移动机器人路径规划系统构建 |
4.3 移动机器人导航与辅助定位 |
4.3.1 导航与定位框架 |
4.3.2 移动机器人辅助定位 |
4.4 本章小结 |
5 实验验证 |
5.1 实验准备 |
5.2 移动机器人地图构建实验 |
5.2.1 数据集地图构建实验 |
5.2.2 实验环境地图构建实验 |
5.3 移动机器人路径规划实验 |
5.4 本章小结 |
结论 |
参考文献 |
攻读硕士学位期间发表学术论文情况 |
课题资助情况 |
致谢 |
(4)面向空气污染的时空多变量数据可视分析(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 研究背景 |
1.2 面临的挑战 |
1.3 研究内容 |
1.4 论文架构 |
第2章 相关工作 |
2.1 空气污染模型及溯源方法 |
2.2 空气污染数据可视分析 |
2.3 多变量数据可视分析 |
2.4 时空数据可视分析 |
2.5 不确定性数据可视分析 |
第3章 空气污染时空模式提取与异常检测可视分析 |
3.1 简介 |
3.2 任务与概览 |
3.3 模式提取与异常检测 |
3.3.1 数据范围及向量化表示 |
3.3.2 模式可视探索 |
3.3.3 潜在模式提取 |
3.3.4 时空异常检测 |
3.4 可视化与系统设计 |
3.4.1 投影视图 |
3.4.2 趋势视图 |
3.4.3 交互 |
3.5 评估与验证 |
3.5.1 CLSP评估 |
3.5.2 NHC评估 |
3.5.3 应用案例一: 探索多变量模式 |
3.5.4 应用案例二: 寻找时序异常 |
3.5.5 应用案例三: 探索地理异常 |
3.6 讨论 |
3.6.1 合理性 |
3.6.2 通用性 |
3.6.3 可扩展性 |
3.6.4 局限性 |
3.7 本章总结 |
第4章 后向轨迹模型不确定性及运动趋势可视分析 |
4.1 简介 |
4.2 概览 |
4.3 模型不确定性分析 |
4.3.1 后向轨迹模型 |
4.3.2 Path2Vec轨迹深度表示方法 |
4.3.3 不确定性量化 |
4.4 可视化与系统设计 |
4.4.1 轨迹相关视图 |
4.4.2 轨迹运动趋势可视化图标 |
4.4.3 邻域对比视图 |
4.4.4 交互设计 |
4.5 评估与验证 |
4.5.1 Path2Vec评估 |
4.5.2 应用案例一: 探索不确定性与地理区域的潜在关系 |
4.5.3 应用案例二: 分析天气系统对不确定性的影响 |
4.6 讨论 |
4.6.1 通用性 |
4.6.2 可扩展性 |
4.6.3 局限性 |
4.7 本章总结 |
第5章 潜在空气污染源识别及演化可视分析 |
5.1 简介 |
5.2 任务和概览 |
5.3 空气污染影响关系网络 |
5.3.1 传输贡献 |
5.3.2 污染共现 |
5.3.3 影响关系网络构建 |
5.4 污染源协同分布模式 |
5.4.1 地理分布特征矩阵生成 |
5.4.2 地理分布特征相似性度量 |
5.4.3 模式提取 |
5.4.4 模式评估 |
5.5 可视化与系统设计 |
5.5.1 潜在污染源概览视图 |
5.5.2 模式演变视图 |
5.5.3 模式对比视图 |
5.5.4 交互设计 |
5.6 评估与分析 |
5.6.1 应用案例一: 污染影响分析 |
5.6.2 应用案例二: 潜在污染源概览分析 |
5.6.3 应用案例三: 污染源协同分布模式演变分析 |
5.7 讨论 |
5.7.1 通用性 |
5.7.2 可扩展性 |
5.7.3 局限性 |
5.8 本章总结 |
第6章 总结与展望 |
6.1 研究工作总结 |
6.1.1 研究内容总结 |
6.1.2 理论方法创新点 |
6.2 下一步研究展望 |
参考文献 |
附录: 英文缩写及其含义 |
致谢 |
在学期间公开发表论文及着作情况 |
(5)基于单目视觉的大范围场景定位与建图技术研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 课题背景 |
1.2 研究现状 |
1.2.1 图像深度估计研究现状 |
1.2.2 单目场景定位研究现状 |
1.2.3 基于视觉的场景重建研究现状 |
1.3 研究思路及章节安排 |
1.3.1 研究思路 |
1.3.2 章节安排 |
第2章 联合光流辅助的尺度约束单目深度估计算法 |
2.1 基本框架、问题描述及算法总体设计 |
2.2 尺度约束单目自监督估计算法 |
2.2.1 基于位姿真值先验的自监督训练模型 |
2.2.2 尺度一致性约束损失函数设计 |
2.3 光流辅助联合训练方法 |
2.3.1 自适应动态区域判别掩码设计 |
2.3.2 场景流-光流交叉一致性损失函数设计 |
2.3.3 基于三角化的稀疏伪深度真值生成方法 |
2.4 实验分析 |
2.4.1 实验设计 |
2.4.2 深度估计精度评估 |
2.4.3 深度估计尺度评估 |
2.5 本章小结 |
第3章 融合单目深度估计的大范围场景定位算法 |
3.1 单目视觉里程计模型及问题分析 |
3.2 融合单目深度估计的定位算法设计 |
3.2.1 总体算法框架设计 |
3.2.2 基于LK光流的稳定特征匹配方法设计 |
3.2.3 基于深度一致性的最大化期望位姿优化算法 |
3.2.4 自适应基线选择策略 |
3.3 实验分析 |
3.3.1 实验设计 |
3.3.2 消融实验 |
3.3.3 定位精度 |
3.3.4 泛化性试验 |
3.4 本章小结 |
第4章 基于八叉树的大范围场景稠密重建算法 |
4.1 稠密地图重建算法框架 |
4.2 详细设计 |
4.2.1 基于超像素聚类的深度估计去噪算法 |
4.2.2 地图快速形变算法 |
4.2.3 稠密地图更新策略 |
4.3 实验分析 |
4.3.1 实验设计 |
4.3.2 八叉树建图验证实验 |
4.3.3 地图快速形变验证实验 |
4.3.4 占据栅格地图验证实验 |
4.4 本章小结 |
第5章 实车实验 |
5.1 实验准备工作 |
5.1.1 实验环境介绍 |
5.1.2 相机标定 |
5.2 深度估计实验 |
5.3 定位实验 |
5.4 建图实验 |
5.5 本章小结 |
第6章 总结与展望 |
6.1 本文工作总结 |
6.2 研究工作展望 |
参考文献 |
攻读硕士学位期间主要的研究成果 |
致谢 |
(6)面向有效纹理稀缺场景的视觉定位与建图方法研究(论文提纲范文)
致谢 |
摘要 |
Abstract |
1 绪论 |
1.1 背景和意义 |
1.2 视觉定位与建图的基本原理 |
1.2.1 视觉传感器 |
1.2.2 多视图几何 |
1.2.3 数据关联 |
1.2.4 状态估计 |
1.3 视觉定位与建图研究现状与发展趋势 |
1.3.1 面向静态纹理稀缺场景的视觉定位与建图方法 |
1.3.2 面向可见光纹理稀缺场景的视觉定位与建图方法 |
1.4 本文主要研究内容和结构 |
2 面向静态纹理稀缺场景的点间相关性视觉SLAM方法 |
2.1 问题描述 |
2.2 基于点间相关性的分割方法 |
2.2.1 相关性表征图构建 |
2.2.2 不一致边剔除 |
2.2.3 静态点确认 |
2.3 面向静态纹理稀缺的RGB-D SLAM |
2.3.1 基于RGB-D传感器的静态地图点确定方法 |
2.3.2 特征点匹配 |
2.3.3 地图管理 |
2.4 实验结果 |
2.4.1 精度对比实验 |
2.4.2 鲁棒性对比实验 |
2.4.3 计算效率对比实验 |
2.4.4 实验总结 |
2.5 小结 |
3 面向静态纹理稀缺场景的视觉同时定位、建图与移动物体追踪方法 |
3.1 算法框架 |
3.1.1 符号系统 |
3.2 地图分割与目标对象创建 |
3.2.1 拓扑结构图创建 |
3.2.2 不一致边剔除 |
3.2.3 目标对象创建 |
3.3 相机与移动物体的运动追踪 |
3.3.1 相机位姿追踪 |
3.3.2 移动物体追踪 |
3.4 静态地图优化 |
3.4.1 局部地图优化 |
3.5 目标对象优化 |
3.5.1 目标对象地图优化 |
3.5.2 重叠校验 |
3.6 实验验证 |
3.6.1 定量实验分析 |
3.6.2 追踪未知物体 |
3.6.3 计算效率分析 |
3.7 小结 |
4 面向可见光纹理稀疏场景的多光谱信息融合里程计方法 |
4.1 符号系统 |
4.2 不依赖对极匹配的多光谱直接法 |
4.2.1 同源时域下的直接图像配准模型 |
4.2.2 异源时域下的直接图像配准模型 |
4.2.3 能观性 |
4.3 算法框架 |
4.4 系统初始化 |
4.5 位姿追踪 |
4.6 地图优化 |
4.7 非一致性矫正问题 |
4.8 实验结果 |
4.8.1 多光谱数据采集平台 |
4.8.2 定量实验 |
4.8.3 定性实验 |
4.8.4 室外评估实验 |
4.9 小结 |
5 总结与展望 |
5.1 研究工作总结 |
5.2 未来研究工作展望 |
参考文献 |
攻读博士学位期间主要研究成果 |
(7)基于机器视觉的自动驾驶安全预警系统设计与实现(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 研究背景和意义 |
1.1.1 研究背景 |
1.1.2 研究意义 |
1.2 国内外研究现状 |
1.2.1 自动驾驶定位技术研究现状 |
1.2.2 临撞预警系统研究现状 |
1.2.3 车道偏离预警系统研究现状 |
1.3 论文主要研究内容 |
1.4 论文组织结构 |
第2章 理论基础和背景技术 |
2.1 重投影变换 |
2.2 4D车辆检测算法 |
2.3 Haar特征提取 |
2.4 支持向量机 |
2.5 本章小结 |
第3章 基于机器视觉的自动驾驶安全预警系统设计 |
3.1 系统总体设计 |
3.1.1 系统架构 |
3.1.2 功能模块 |
3.1.3 系统流程 |
3.2 自更新地图传感定位子系统设计 |
3.2.1 数据采集 |
3.2.2 路标识别 |
3.2.3 车辆定位 |
3.3 基于双目视觉的临撞预警子系统设计 |
3.3.1 基于视觉的车辆检测与跟踪 |
3.3.2 基于视觉的行人检测 |
3.3.3 自动驾驶车辆和行人临撞预警策略 |
3.4 基于视觉的车道偏离预警子系统设计 |
3.5 本章小结 |
第4章 系统实现与实验测试 |
4.1 硬件及场地设计 |
4.1.1 室内实验设备 |
4.1.2 室外实验设备 |
4.1.3 场地设计 |
4.2 自更新地图传感定位子系统实现及测试 |
4.2.1 系统实现 |
4.2.2 自更新地图传感定位室内测试实验 |
4.2.3 自更新地图传感定位实际道路测试实验 |
4.3 基于双目视觉的临撞预警子系统实现及测试 |
4.3.1 系统实现 |
4.3.2 基于任务的4D车辆检测和跟踪实验 |
4.3.3 基于视觉的行人检测实验 |
4.4 基于视觉的车道偏离预警子系统实现及测试 |
4.4.1 系统实现 |
4.4.2 基于视觉的车道偏离预警子系统测试实验 |
4.5 本章小结 |
第5章 总结与展望 |
5.1 总结 |
5.2 展望 |
参考文献 |
致谢 |
(8)基于可移动物体去除的语义SLAM算法研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.3 SLAM现存问题分析 |
1.4 本文组织结构 |
第二章 研究方案设计与分析 |
2.1 研究任务及目标 |
2.2 方案设计 |
2.3 可移动物体判别算法设计与分析 |
2.4 语义SLAM算法设计 |
2.5 本章小结 |
第三章 可移动物体判别算法 |
3.1 可移动物体判别算法 |
3.2 激光点云特征 |
3.3 激光点云语义提取 |
3.4 本章小结 |
第四章 语义SLAM算法 |
4.1 前端里程计 |
4.2 后端优化与回环检测 |
4.3 可移动物体去除的地图构建 |
4.4 语义地图的构建及使用 |
4.5 本章小结 |
第五章 实验 |
5.1 实验环境 |
5.2 可移动物体对SLAM的影响 |
5.3 语义对定位的影响 |
5.4 本章小结 |
第六章 总结与展望 |
6.1 工作总结 |
6.2 工作展望 |
参考文献 |
硕士期间发表论文和参加科研情况 |
致谢 |
(9)基于机器学习的轨迹数据道路提取方法研究(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 研究背景与意义 |
1.2 研究现状与分析 |
1.2.1 基于数据源的道路提取方法分类 |
1.2.2 基于车辆轨迹数据的道路提取研究现状 |
1.2.3 存在问题 |
1.3 研究思路与内容 |
1.3.1 项目来源 |
1.3.2 研究思路 |
1.3.3 研究内容 |
1.4 组织结构 |
1.5 本章小结 |
第二章 车辆轨迹数据道路提取相关理论 |
2.1 机器学习相关方法 |
2.1.1 AI相关概念的关系 |
2.1.2 DBSCAN聚类算法 |
2.1.3 卷积神经网络 |
2.1.4 生成式对抗网络 |
2.2 车辆轨迹数据及相应特征 |
2.2.1 车辆轨迹的定义 |
2.2.2 车辆轨迹数据特征 |
2.2.3 车辆轨迹数据来源及论文实验数据 |
2.3 道路提取相关方法 |
2.3.1 道路表达模型 |
2.3.2 道路提取与轨迹数据特征的关系 |
2.3.3 道路提取流程 |
2.3.4 道路提取结果评价指标 |
2.4 本章小结 |
第三年章 基于核距离聚类的道路提取方法 |
3.1 多约束条件聚类问题 |
3.2 核距离 |
3.2.1 核函数的概念 |
3.2.2 核距离的定义 |
3.2.3 基于核距离的DBSCAN算法 |
3.3 基于聚类的车行道级道路提取方法 |
3.3.1 车行道级道路提取对聚类算法的要求 |
3.3.2 基于聚类结果融合的车行道级道路拟合 |
3.4 实验与结果分析 |
3.4.1 实验环境与流程 |
3.4.2 网格索引与归一化处理 |
3.4.3 K-DBSCAN聚类流程及参数讨论 |
3.4.4 聚类效果对比 |
3.4.5 道路提取结果对比 |
3.4.6 实验结论 |
3.5 本章小结 |
第四章 基于轨迹密度的道路提取深度学习方法 |
4.1 基于深度学习的轨迹数据道路提取 |
4.1.1 深度学习与轨迹数据道路提取的关系 |
4.1.2 Pix2Pix模型 |
4.1.3 轨迹密度 |
4.2 基于轨迹密度的中心线级道路提取方法 |
4.2.1 基于深度学习的中心线级道路提取流程 |
4.2.2 基于Pix2Pix的道路学习提取 |
4.2.3 残差网络 |
4.2.4 TDRM-CGAN模型 |
4.3 模型训练和参数分析 |
4.3.1 实验环境 |
4.3.2 样本数据集制作 |
4.3.3 模型训练 |
4.3.4 模型参数优化 |
4.4 道路提取结果分析评价 |
4.4.1 道路提取精度分析 |
4.4.2 道路提取效果分析 |
4.4.3 实验结论 |
4.5 本章小结 |
第五章 轨迹朝向约束的道路提取深度学习方法 |
5.1 轨迹朝向约束的车行道级道路提取 |
5.1.1 基于深度学习的车行道级道路提取面临的问题 |
5.1.2 Pix2PixHD模型 |
5.1.3 朝向-颜色映射栅格化转换 |
5.2 车行道级道路提取模型 |
5.2.1 车行道级道路提取流程 |
5.2.2 TORM-CGAN模型 |
5.3 模型训练和参数分析 |
5.3.1 模型训练 |
5.3.2 参数优化 |
5.4 实验与结果评价 |
5.4.1 道路提取精度评价 |
5.4.2 道路提取结果分析 |
5.4.3 实验结论 |
5.5 本章小结 |
第六章 融合轨迹和影像的道路提取深度学习方法 |
6.1 基于多源数据融合的道路提取 |
6.2 融合车辆轨迹和遥感影像的道路提取方法 |
6.2.1 TRRM-CGAN模型道路提取流程 |
6.2.2 道路提取目标 |
6.2.3 TRRM-CGAN模型 |
6.2.4 模型训练 |
6.3 实验与结果评价 |
6.3.1 数据源对道路提取精度的影响 |
6.3.2 道路段提取长度分析 |
6.3.3 道路提取效果分析 |
6.3.4 实验结论 |
6.4 本章小结 |
第七章 总结与展望 |
7.1 研究总结 |
7.1.1 主要工作 |
7.1.2 主要创新点 |
7.2 研究展望 |
致谢 |
参考文献 |
附表 |
作者简历 |
(10)基于地图信息约束的室内定位技术研究(论文提纲范文)
摘要 |
abstract |
第1章 绪论 |
1.1 课题的研究背景 |
1.2 室内定位的国内外研究现状 |
1.2.1 基于WiFi的室内定位技术 |
1.2.2 基于惯性传感器的室内定位技术 |
1.2.3 基于地图信息的室内定位技术 |
1.3 论文的主要工作及内容编排 |
第2章 典型室内定位技术原理 |
2.1 基于惯性传感器的PDR室内定位技术 |
2.1.1 常用坐标系定义 |
2.1.2 PDR定位技术基本原理 |
2.2 基于WiFi的室内定位技术 |
2.2.1 WiFi三边测量定位算法 |
2.2.2 WiFi指纹匹配定位算法 |
2.3 基于地图信息的室内定位技术 |
2.3.1 地图辅助定位算法 |
2.3.2 地图匹配定位算法 |
2.4 导航滤波方法 |
2.4.1 卡尔曼滤波算法 |
2.4.2 粒子滤波算法 |
2.5 本章小结 |
第3章 基于室内空间信息约束的室内定位技术 |
3.1 基于室内空间信息辅助的PDR定位技术 |
3.1.1 室内空间信息库建立与识别方法 |
3.1.2 基于空间信息辅助的PDR定位 |
3.2 基于室内空间信息区域划分的WiFi定位技术 |
3.2.1 WiFi离线数据去噪预处理 |
3.2.2 狭长区域移动约束WiFi定位 |
3.2.3 自适应WKNN定位算法 |
3.3 实验分析 |
3.3.1 基于室内空间信息辅助的PDR定位实验 |
3.3.2 基于室内空间信息区域划分的WiFi定位实验 |
3.4 本章小结 |
第4章 基于自适应双重重要性粒子滤波算法的地图辅助室内定位 |
4.1 室内地图信息的获取 |
4.2 基于无效粒子判别算法的地图辅助室内定位 |
4.3 基于粒子滤波算法的地图辅助室内定位 |
4.3.1 基于传统粒子滤波算法的地图辅助室内定位 |
4.3.2 基于辅助粒子滤波算法的地图辅助室内定位 |
4.4 基于自适应双重重要性粒子滤波算法的地图辅助室内定位 |
4.5 实验分析 |
4.6 本章小结 |
第5章 基于地图匹配的轨迹综合优化 |
5.1 轨迹地图模型构建 |
5.2 地图匹配室内定位算法框架 |
5.3 地图匹配室内定位算法实现 |
5.3.1 基于拓扑匹配的走廊区域室内定位 |
5.3.2 基于虚拟路径匹配的开阔空间室内定位 |
5.3.3 基于虚拟跟踪匹配的开阔空间室内定位 |
5.4 综合实验分析 |
5.5 本章小结 |
结论 |
参考文献 |
攻读硕士学位期间发表的论文和取得的科研成果 |
致谢 |
四、地图投影的判别与选择(论文参考文献)
- [1]基于PDR和地图匹配的室内定位方法研究[D]. 王振远. 中国矿业大学, 2021
- [2]基于高精地图的视觉定位技术的研究[D]. 韩东. 中国科学院大学(中国科学院深圳先进技术研究院), 2021(08)
- [3]室内场景下的移动机器人视觉建图与路径规划[D]. 孙欣成. 大连理工大学, 2021(01)
- [4]面向空气污染的时空多变量数据可视分析[D]. 任珂. 东北师范大学, 2021(09)
- [5]基于单目视觉的大范围场景定位与建图技术研究[D]. 王烁. 浙江大学, 2021(01)
- [6]面向有效纹理稀缺场景的视觉定位与建图方法研究[D]. 戴玮辰. 浙江大学, 2021(01)
- [7]基于机器视觉的自动驾驶安全预警系统设计与实现[D]. 李明珠. 吉林大学, 2021(01)
- [8]基于可移动物体去除的语义SLAM算法研究[D]. 杜海镔. 天津工业大学, 2021(01)
- [9]基于机器学习的轨迹数据道路提取方法研究[D]. 陆川伟. 战略支援部队信息工程大学, 2020(01)
- [10]基于地图信息约束的室内定位技术研究[D]. 汪梦添. 哈尔滨工程大学, 2020(05)