一、摄像机的光控技术及其应用(论文文献综述)
吴海滨,徐恺阳,于双,王爱丽,岩堀佑之,孙晓明[1](2021)在《增强现实手术导航系统的投影显示技术综述》文中进行了进一步梳理增强现实手术导航系统实现虚拟器官与真实场景的融合叠加显示,便于医生手术操作。综述了增强现实技术在不同临床领域中应用或研究的手术导航系统。鉴于增强现实技术为手术导航系统提供了更好的显示方式,从视频显示技术、立体显示技术和投影显示技术3种方式对术中增强现实显示技术进行分类总结。针对最有前景的投影显示技术,综述了针对解析表面和非解析表面的投影畸变校正关键技术的发展、方法及特点。最后,对投影显示技术的难点和未来发展趋势进行了展望。
常梦洁[2](2021)在《基于双位置立体视觉的危化品库内三维重建技术研究》文中提出在危化品行业相关领域中,危化品仓储安全一直是人们关心的重点问题,直接关系城市安全、生产安全。传统的危化品监管方式以视频监控、人工监管为主,然而在实际的监管过程中,存在着监控摄像头视野有限、仓库堆垛物品遮挡视野等问题,这使得危化品仓库安全监管效果大打折扣。为了解决现存的危化品仓库安全监管问题,实现危化品仓库货物存放距离的智能安全检测,本文结合机器视觉和图像处理的相关技术,开展库内大场景三维重建技术研究,主要工作如下:(1)采用张正友标定算法完成双目摄像机的标定和双位置的联合标定,对联合标定结果进行优化,获取高精度的双目摄像机内外参数及表示两双目摄像机位置关系的变换矩阵。(2)提出改进的SAD匹配算法,通过引入均值为零的二维高斯分布加权系数对传统SAD算法进行加权,使匹配注意力集中在匹配块的中心部分;引入GLCM中的统计量对图像的纹理特征进行描述,对初始视差图进行优化,得到高质量的视差图。(3)基于标定结果及视差图对仓库场景进行点云重建,得到原始点云,对原始点云进行点云预处理后,利用优化后的变换矩阵对两组点云进行拼接,拼接误差仅为22.35mm,实现点云坐标系的快速统一。(4)利用HSV颜色模型对地面警戒线进行提取并重建,利用图像差分对堆垛进行提取并重建,通过判断警戒线点云和堆垛点云是否有重叠来判断堆垛是否超界,实现安全预警。
雷宇[3](2021)在《管柱激光可视化三维扫描成像技术研究》文中认为近年来,国家在开发新油气井的同时,也在加大旧油气井的治理力度。油气井管柱在服役过程中,可能会存在扩径、缩径、变形甚至破损等问题,影响油气井生产安全与产量。因此,准确掌握油气井管柱损伤情况对于研究管柱损伤机理、采取保护措施和制定修补方案,具有十分重要的意义。针对管柱损伤检测,论文重点研究了基于激光可视化的管柱损伤检测与三维建模方法。本文基于油气井可视化检测技术,提出了一种激光可视化检测与管柱建模方法,该方法主要分为以下几步:(1)通过环形激光器扫描管柱内壁,使用可视化检测设备记录扫描过程;(2)采用摄像标定技术对视频图像进行畸变矫正;(3)使用边缘检测技术、图像形态学处理和图像边界追踪技术提取视频图像中激光光圈的边界数据;(4)通过偏心校正、采样与量化及对称插值法解决边界不同心、不等宽、不闭合以及长度和样本点个数不统一等问题;(5)使用处理后的管柱数据构建三维管柱模型并对管柱缺陷进行评估。以激光可视化检测与管柱建模方法为指导,在本课题组研制的Video Log可视化检测系统的基础上,设计了激光可视化检测系统和管柱三维建模软件系统,激光可视化检测系统主要完成图像采集工作,管柱三维建模软件系统可以实现管柱三维建模及缺陷评估。通过激光可视化检测系统对内径为123mm发生变形的管柱进行检测,使用管柱三维建模软件对采集到的视频图像进行处理,得到管柱三维模型。实验结果表明,本文提出的激光可视化检测与管柱建模方法可以直观的检测出管柱变形,能够构建更加精确的三维管柱模型,为管柱损伤检测及缺陷评估提供了新思路。
王艳[4](2021)在《基于一维图像组合的空间目标位姿测量关键技术研究》文中研究说明随着科技的发展,空间目标的位姿测量技术在航空、航天、工业等各领域发挥着举足轻重的作用,而基于光学图像的位姿测量技术则是近景摄影测量、计算机视觉和遥感等领域的研究热点,其具有非接触、设备简单及测量精度高等优点。近年来,随着线阵CCD、CMOS传感器技术的发展和线阵光学图像研究的深入,基于线阵光学图像传感器在空间目标位姿测量的优势得以展现。相比激光、雷达等其他非接触测量方式,其具有不可替代的作用。针对传统的基于面阵光学图像的位姿测量技术的精度和速度之间的矛盾,本文提出一种基于一维图像组合的空间目标高精度位姿估计方法,旨在完成对空间悬浮姿态运动目标的高精度位姿测量任务。课题研究应用于空间目标位姿测量的悬浮试验,针对线阵信号特性,提出了一种改进的高精度像点质心定位方法,基于线阵像机的成像机制,研究了一种新型的线阵像机标定方法,基于多线阵像机测量机制,建立了多线阵像机位姿测量系统的数学模型,开展了基于多线阵组合测量的空间目标高精度位姿估计算法研究,并建立了合作目标的高精度、快速的姿态解算模型。本文提出的方法可对装有惯导的被测目标运动参数进行校验,因此,实现多线阵CCD对空间运动点目标的运动检测,高精度地完成对运动目标的位姿测量将具有广泛的应用前景。论文的主要研究工作包括以下几个部分:(1)设计并研制了一套由三线阵CCD组成的位姿测量系统,研究了影响三线阵像机公共视场变化的因素,对像机的有效工作视场空间进行了分析。基于原始采集的线阵信号,根据其噪声的分布性质,研究一种改进的小波阈值去噪方法进行降噪处理,结果显示,该算法可抑制各种噪声。为了提高线阵CCD像点定位能力,针对传统的一维信号像点定位方法的不足,提出了自适应阈值的插值重心加权质心定位法,研究表明,本文算法的质心定位误差在0.029像素以内。与其他几种细分方法相比,本文算法定位精度更高,抗噪性更好,满足高精度系统的任务需求。(2)针对位姿测量中配备柱面镜头的线阵像机成像的畸变问题,建立了基于交比不变的线阵像机畸变修正数学模型,提出了一种基于线阵CCD改进的像机标定两步法。该方法无需高精度标定参照物,仅利用靶标之间的约束关系建立基于交比不变特性的线阵像机畸变模型。算法首先对已建立的线阵像机成像模型进行像机参数的线性求解;再进行畸变系数的计算;最后利用迭代方法进行像机参数的非线性优化,完成线阵像机的标定。仿真结果表明,对比传统的DLT法,本文算法抗噪性更好、精度更高。论文也研究了标定误差对位姿测量精度的影响,结果显示,主点误差对位姿测量精度影响较大,等效焦距较小;本文算法的重投影标准差为0.031像素。实际验证中,首先针对畸变模型及单像机标定精度展开,重投影定位误差优于0.025像素。标定方案引入线阵像机间固有的位姿关系作为标定误差补偿的约束条件,添加至线阵像机标定的共线误差方程中,补偿后的位置误差在0.746mm以内,角度误差在0.247°以内,相比于传统的线阵像机标定法,本文方法标定精度高、稳定性强。(3)传统的正交迭代算法是基于单目视觉测量,且仅应用于面阵像机上,为了解决多线阵像机位姿估计问题,本文提出了一种基于多线阵CCD位姿估计的高精度解算方法。算法首先建立多像机数据的统一表达,将所有像机观测数据看作广义单像机下的数据,再通过引入像方残差作为权值判断准则建立全新的误差评价函数,最后,应用改进的加权正交迭代算法求解位姿参数,算法有效地克服了传统正交迭代算法中的野值点误差对算法精度影响。仿真结果表明,与传统的正交迭代算法相比,本文算法避免了由于数据恶化或初值选取不当造成的迭代不收敛或收敛差等问题,计算效率提高了4.6倍;算法的抗噪性得到了有效的改善,在同等噪声水平下本文算法的精度更高,说明本文算法对噪声不敏感。实际测量的位置误差优于0.964mm,角度误差优于0.765°。针对现场测量任务,结合刚体运动特性,设计了多点合作目标,并建立了基于多点合作目标的欧拉-四元数姿态解算模型。模型避免了欧拉角在姿态解算中的奇异问题的发生,减少了因采用欧拉角计算时由三角函数引入的非线性误差。针对点目标遮挡问题,将强跟踪UKF算法引入到线阵姿态测量系统,完成线性成像的多目标同名像点匹配,仿真结果表明,目标在状态突然改变时或标志点发生遮挡时,强跟踪UKF算法可实现姿态信息的精准跟踪能力,完成同名像点的匹配。
杨家琪[5](2021)在《基于双目立体视觉的三维信息重建》文中提出随着近年来人工智能技术的发展,计算机视觉也成为了当前研究的热门之一。由于双目立体视觉基本原理与人类视觉系统原理基本相同,所以双目立体视觉更是当下研究的重点。为了给室内移动机器人避障提供轨迹修正信息,需要利用双目立体视觉系统实现对外部场景障碍物空间信息的获取。双目立体视觉主要使用两个摄像机对同一场景从不同角度进行图像采集,通过对图像对的处理获取场景中物体对应点间的几何数据,再根据双目立体视觉的几何模型,最终得到场景中物体的三维信息,该信息可以用于机器人避障使用,由于该方法的简单实用性,具有很好的使用前景。环境信息三维重建,过程分为摄像机标定,图像预处理,图像立体匹配和三维信息重建四个部分进行。首先要对摄像机和镜头进行选取,基于平行双目立体视觉模型,将两个摄像机平行放置,完成双目立体视觉平台的搭建。在摄像机标定阶段,对自制的标定板从不同角度进行拍摄,使用MATLAB标定工具箱,手动完成摄像机的标定,得到两个摄像机相关的内外参数。图像预处理阶段对获取的彩色图像对使用高斯滤波进行降噪,直方图匹配完成亮度差异平衡,然后灰度化处理得到灰度图,最后通过LOG算子进行锐化四步处理,最终得到噪声少、亮度差异小、边缘细节突出的图像对。图像立体匹配阶段,选取区域匹配算法获取视差图,针对传统Census算法窗口信息单一,易受噪声干扰的问题,对传统Census算法进行改进,引入新的像素评判准则,进而丰富窗口信息的获取,在代价聚合阶段,引入多尺度代价聚合模型和引导图滤波算法完成代价聚合,提升算法的整体性能,通过实验证明本文改进算法可以获取稠密的视差图,并且在匹配精度和抗噪性方面均有提升,可以用来完成最终的三维信息重建工作。最后对完整的三维信息重建过程进行梳理,利用已经获得的视差图,通过三维坐标计算方法获取物体三维空间信息,完成三维重建,对获得的三维信息重建结果进行精确度实验,验证了重建结果的准确性和实用性。
陈卫[6](2019)在《基于单目视觉的捡球机器人的关键技术研究》文中认为科技的发展与进步是以改善人类的生活质量为目的,先进科技的产业化和成果化对人类的生产生活具有深远的影响和重要意义。移动机器人技术的研究与发展对人类生活质量的提升具有重要意义。本文以基于单目视觉的捡球机器人为研究对象,对其关键技术进行研究,主要工作如下:(1)针对捡球机器人对球体目标的识别问题,利用球体目标的颜色和形状两个特征量匹配完成对球体目标的最终识别。在对球体颜色特征进行识别过程,对颜色空间模型进行转换,在HSV彩色空间模型中采用双阈值的方法进行对颜色识别。在对形状特征量进行识别的过程中,将彩色图像进行灰度化处理后,通过自适应阈值分割的方法改善了光照不均匀条件下图像分割不准确的问题,在使用Candy边缘检测的方法进行边缘提取后,通过霍夫圆变换完成对形状的识别。最终通过实验表明该方法在不同光照条件下对目标球体的识别效果较为理想。(2)对本文采用的张正友标定法进行深入研究,为保证标定结果的准确性,采集多幅标定板的不同姿态的图像,并最终获取摄像机的内参矩阵及畸变系数。结合捡球机器人的实际工作背景,采用近地约束模型对目标球体进行单目视觉测距实验。通过实验结果分析,该测距算法在一定范围内满足对目标球体的测距需求。(3)基于捡球机器人视野范围有限的特点,采用分层规划思想对全局进行窗口划分,在每个窗口内采用蚁群算法对窗口内球体进行多目标路径规划,Matlab仿真结果表明在机器人搜索完全局后虽不能实现全局最优,但接近全局最优且对捡球机器人的特点具有较强适用性。针对捡球机器人工作环境中的避障问题,在传统人工势场法基础上引入了距离调节因子及机器人与障碍物的相对速度因素,对势场力角度进行调整,并加入自适应步长。Matlab仿真结果表明该算法解决了机器人在特殊位置关系下不可到达目标点和避障轨迹不平滑问题,使机器人更快摆脱障碍物的影响。
徐喜梅[7](2019)在《基于地面信息的无人机自主定位技术研究》文中研究说明无人机具有灵活性强、操作方便、成本低廉等优势,随着应用需求的提高,其作业环境日益多元化及复杂化。无人机所采用的卫星定位系统,在城市高楼、电磁干扰、恶劣天气等条件下,卫星信号会受到严重干扰,导致定位失效。因此仅依靠卫星定位系统已不能满足无人机的任务需要。为了提高机载定位系统的环境适应性,在保证小体积、低功耗的前提下,研究能适用于复杂任务场景的无人机自主定位技术已成为亟待解决的主要问题之一。本文主要研究地面信息辅助下的无人机视觉自主定位问题。主要研究内容如下:(1)基于单目序列图像的三维点云重建。针对无人机图像数据的特点,提出了一种基于IMU位姿信息辅助的三维点云重建方法,采用IMU提供的位姿信息辅助本质矩阵的求解,实现无人机的导航数据与视觉信息融合的三维点云重建技术,并进行仿真验证及分析。(2)基于共形几何代数的三维点云配准。针对三维点云信息量大,传统的配准算法效率低,难以实现自主定位实时化的问题,因此本文研究基于共形几何代数的三维点云配准算法,将共形几何代数应用到三维稠密点云的配准中,推导了基于点线约束的ICP配准方法,进行仿真实验并与已有算法进行对比分析。(3)基于地面目标点约束的无人机自主定位。在已知无人机姿态、目标点的像点坐标、大地坐标等信息的基础上,根据地面目标点、像点与无人机位置之间的几何约束关系构建自主定位数学模型。并根据地面目标点数量的差异研究基于单点约束和基于多点约束的无人机自主定位技术,并对其进行仿真验证及误差分析。(4)基于地面目标点约束的无人机自主定位技术的实验验证,分析各测量误差对定位结果的影响,并针对性的提出应对措施。
黄伟萍[8](2018)在《基于立体视觉的增强现实技术研究及其应用》文中指出增强现实技术由于其虚实融合的特点,能够增强人们对现实场景的感知能力和交互体验,已成为计算机科学领域的热门技术。针对基于内窥镜视觉导航微创手术中的人体内部解剖结构错综复杂、病灶区域定位难等问题,增强现实技术开始被应用到手术导航当中。通过将术前影像等先验信息叠加到即时的手术画面中,给予医生“透视”导航效果,从而实现对病灶的直观三维显示及精确定位,提高手术成功率。本文重点探索和研究基于立体视觉的增强现实技术应用在盆腔微创手术中存在的问题及解决方案,具体的研究内容如下:首先,针对术前影像重建的3D模型与内窥镜视野下的2D目标区域的配准难的问题,本文提出基于颜色一致性的3D/2D配准方法。利用显露在内窥镜的部分骨盆组织来完成术前3D模型到2D目标区域的初始化配准,缩短了人工配准时间,提高了配准精度。与此同时,提出3D模型的可视点快速检测法和仿真实验环境的制备方法。其次,针对内窥镜的定位问题,本文提出两种定位算法:基于3D模型的摄像机定位算法和基于立体视觉的摄像机定位算法。在3D模型与2D目标区域重叠对齐的条件下,通过最小化模型可视点的光度测量误差来优化摄像机的帧间相对位姿。实验结果表明,此定位算法的估计轨迹精度较高。然而,该算法的鲁棒性需满足以下三个条件的场景:3D模型与真实物体的形状完全一致;3D模型与真实物体完全配准对齐;真实物体的表面大部分能够被观测到。在现实手术场景应用中,该算法存在一定的局限性。因此,本文进一步提出基于立体视觉的摄像机定位算法。首先采用具有多种优良特性的ORB(Oriented Brief)作为定位算法的特征提取及匹配的特征算子,并对立体匹配算法进行改进;接着使用立体光束平差法(Bundle Adjustment,BA)和立体三维点云优化进行估计摄像机位姿,并通过局部地图优化以减少累积误差。实验结果显示,基于立体视觉的定位算法具有较高定位精度,且满足一定的实时性。最后,本文将增强现实技术应用于仿真盆腔微创手术导航。首先介绍了系统总体框图以及实现细节,然后通过位姿优化线程、局部地图优化线程和增强现实显示线程实现导航系统,并在仿真骨盆模型进行算法验证。同时,在未知摄像机真实轨迹的情况下,提出通过评估3D模型与真实物体的重叠程度来定性判断摄像机位姿估计的准确性,实验结果表明此系统具有良好的增强现实显示效果。
殷宁宁[9](2017)在《基于三维机器视觉的轮毂检测分选系统研究》文中提出随着经济的发展,汽车越来越多地进入人们的生活中,这促进了汽车产业的发展,导致汽车零配件需求的增加。汽车轮毂作为汽车的重要部件,其需求量迅速增长。在轮毂生产过程中通常需要对轮毂进行识别与分选,以便进入后续的加工通道。机器视觉具有非接触,效率高,在线实时性等特点,这对于实现轮毂的自动检测和分选,提高工厂的自动化生产水平具有重要意义。三维机器视觉能够采集更多的信息,更好的描述现场环境,有利于实现轮毂的检测分选。本文研究了基于双目相机三维机器视觉的汽车轮毂检测与分选系统,为实现工业现代化生产作出了有益的尝试和探讨。本文研究内容如下:(1)根据摄像机的成像原理,建立双目相机的成像模型,并给出了双目系统中存在的坐标系间的映射关系,而且标定处理相机模型中的参数。(2)在三维重建阶段,提出了基于有效区域的轮毂图像匹配方法,并获取了理想的匹配视差图像。在视差图像的基础进行空间点的重建,计算其三维坐标。最终通过可视化软件将轮毂三维重建结果显示出来。而且在三维重建的基础上计算了轮毂的几何尺寸信息。(3)在轮毂特征提取与识别过程中,提出了基于参数空间的轮毂轮辐特征获取方法,有效的提取了轮毂轮辐特征,该算法具有较强的抗干扰能力。在识别轮毂的过程中提出了基于相关分析法的轮毂识别策略,并且通过对测试验证了该算法的有效性。(4)对基于双目视觉的轮毂检测分选系统进行方案设计,研究了视觉检测系统的硬件系统和软件功能和分选控制系统的硬件与软件系统。在Visual Studio 2010环境下实现轮毂图像处理、特征提取及识别算法,并开发便于人机交互的上位机软件操作界面;而且分析设计下位机PLC分选控制系统。
王粮局[10](2016)在《基于动态识别定位的多机械手草莓收获机器人的研究》文中认为草莓是我国常见的水果,需求量很大。2014年我国草莓种植面积达到113.3千公顷,并呈增加趋势。然而,草莓的采摘需要长时间低头弯腰,劳动强度很大。因此,研制草莓采摘机器人很有必要性。由于成熟的草莓果实为红色,和背景差异明显,且一般贴在垄面上和枝叶分离,因此使用机器人采摘的可行性强。本课题针对垄作栽培模式草莓的生长特性和果实分布特点,提出了多机械臂连续采摘的收获方式,完成了机械本体设计、动态识别定位、采摘任务分配和整个系统的控制,最终搭建了试验样机。主要研究内容和研究结果如下:1.为了无损高效采摘果实,设计了拢果式末端执行器。采用从下向上拢起果实、避开障碍后再进行夹持和切割果柄的采摘方式,机械结构主要由机械爪拢夹切断机构和垄壁仿形机构组成,试验结果表明目标果实定位误差在±7mm范围内、果实域宽度在10cm范围内都能完成采摘。2.针对全局阈值分割对环境适应性弱的问题,提出了基于局部直方图的草莓图像自动阈值分割方法;采用基于改进的k-means算法,根据波峰的统计数据优化初始聚类中心,并使用直方图进一步提高算法效率。提出了快速分离相互接触果实的方法,首先检测出凹陷区,然后检测凹陷区的凸点作为相互接触草莓果实下侧凹点;根据凹点附近的草莓轮廓,计算出重叠边缘的大致方向和粗略边缘。3.将高速位置锁存方法应用到手眼视觉伺服系统和双目视觉系统,提高了定位速度和精度。使用基于轮廓的匹配方法以降低双目立体视觉定位算法的复杂性,采用摄像机曝光信号触发控制卡高速锁存行走机构位置信息的方法,实现在世界坐标系内果实的实时定位。采用基于手眼系统的视觉伺服方法实现了对草莓果实在水平方向的精确定位;在视觉伺服过程中,采用摄像机曝光信号触发控制卡高速锁存位置信息的方法,解决了视觉信息滞后所造成的和位置信息在时间上不一致的问题;采用融合位置信息的方法,解决了视觉位置信息反馈频率低的问题;用运动恢复结构的方法,推导出了目标草莓域的深度信息的精确计算方法,进而得到精确的果实采摘参数。4.针对多机械臂采摘机器人,设计了集中式架构的控制系统,能够满足多机械手系统的控制要求。提出了多机械手采摘草莓的动态任务分配算法,能够适用于采摘任务不断变化以及单次采摘时间不事先确定的情况。5.搭建了多机械臂草莓收获机器人的样机并进行了室内的采摘试验。该机器人主要由3组2自由度的采摘机械手、行走机构和双目视觉系统和控制系统组成。试验结果表明,多机械臂采摘机器人的采摘效率提升很显着,在不大于100mm/s的速度下,每米10颗密度的草莓果实分布,可实现完全采摘,采摘速度可达1.7s/次。
二、摄像机的光控技术及其应用(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、摄像机的光控技术及其应用(论文提纲范文)
(1)增强现实手术导航系统的投影显示技术综述(论文提纲范文)
1 引言 |
2 手术导航系统 |
3 显示技术 |
3.1 视频显示技术 |
3.2 立体显示技术 |
3.3 投影显示技术 |
4 投影畸变校正技术 |
4.1 基于单应的校正方法 |
4.2 基于网格的校正方法 |
4.3 基于Bezier函数拟合的校正方法 |
4.4 基于二次曲面拟合的校正方法 |
5 技术难点与前景展望 |
5.1 医生视角追踪 |
5.2 内腔三维重建 |
5.3 投影畸变校正 |
5.4 呼吸运动补偿 |
(2)基于双位置立体视觉的危化品库内三维重建技术研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 课题研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 计算机视觉及立体视觉研究现状 |
1.2.2 双目立体视觉三维重建和多视觉联合研究现状 |
1.3 本文研究内容和章节安排 |
1.3.1 研究内容 |
1.3.2 章节安排 |
第二章 仓库环境下的摄像机标定 |
2.1 刚体变换 |
2.2 摄像机成像模型 |
2.2.1 常用坐标系 |
2.2.2 线性模型 |
2.2.3 非线性模型 |
2.3 摄像机标定 |
2.3.1 单目摄像机标定 |
2.3.2 双目摄像机标定 |
2.3.3 实验结果及分析 |
2.4 联合标定 |
2.4.1 两组双目摄像机联合标定 |
2.4.2 实验结果及分析 |
2.5 本章小结 |
第三章 立体匹配原理及改进算法 |
3.1 视差原理 |
3.2 约束准则 |
3.3 匹配算法 |
3.3.1 改进SAD算法 |
3.3.2 视差图优化处理 |
3.3.3 实验结果及分析 |
3.4 本章小结 |
第四章 仓库场景的三维重建与双位置点云拼接 |
4.1 三维场景重建 |
4.1.1 三维重建 |
4.1.2 实验结果及分析 |
4.2 点云预处理 |
4.2.1 点云去噪 |
4.2.2 点云下采样 |
4.2.3 实验结果及分析 |
4.3 双位置点云拼接 |
4.3.1 拼接 |
4.3.2 实验结果及分析 |
4.4 本章小结 |
第五章 仓库内的堆垛超界检测 |
5.1 基于HSV颜色模型的警戒线提取与重建 |
5.1.1 HSV模型 |
5.1.2 颜色模型转换 |
5.1.3 颜色特征提取 |
5.1.4 实验结果及分析 |
5.2 基于背景差分的堆垛提取与重建 |
5.2.1 背景差分 |
5.2.2 实验结果及分析 |
5.3 超界检测 |
5.3.1 全局标定方法 |
5.3.2 同名坐标统一法 |
5.3.3 三点确定H_s~g |
5.3.4 多点确定H_s~g |
5.3.5 实验结果及分析 |
5.4 本章小结 |
第六章 总结与展望 |
6.1 论文工作总结 |
6.2 未来工作展望 |
参考文献 |
致谢 |
研究成果及发表的学术论文 |
(3)管柱激光可视化三维扫描成像技术研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 可视化检测技术 |
1.2.2 管柱三维成像技术 |
1.3 本文研究内容及章节安排 |
第二章 关键技术及理论基础 |
2.1 摄像机成像模型 |
2.1.1 常用坐标系 |
2.1.2 线型摄像机模型 |
2.1.3 非线性摄像机模型 |
2.2 摄像机标定 |
2.2.1 摄像机标定方法选择 |
2.2.2 张正友平面标定法 |
2.3 图像边缘检测 |
2.3.1 经典的边缘检测算子 |
2.3.2 常见边缘检测算子的仿真结果及分析 |
2.4 本章小结 |
第三章 激光可视化检测与管柱建模方法 |
3.1 可视化检测关键问题分析 |
3.1.1 影响管柱变形检测效果的因素 |
3.1.2 管柱三维数据的获取 |
3.2 管柱三维建模方法研究 |
3.2.1 图像采集 |
3.2.2 图像矫正 |
3.2.3 光圈坐标提取 |
3.2.4 数据规范化 |
3.2.5 构建三维管柱模型 |
3.3 本章小结 |
第四章 激光可视化检测系统设计 |
4.1 激光可视化检测仪组成与工作原理 |
4.1.1 图像采集模块 |
4.1.2 360°水平激光器模块 |
4.2 主控机箱组成与工作原理 |
4.3 本章小结 |
第五章 管柱三维建模软件设计 |
5.1 功能模块划分 |
5.2 显示界面设计 |
5.3 管柱三维建模软件模块设计 |
5.3.1 图像矫正模块设计 |
5.3.2 光圈坐标提取模块设计 |
5.3.3 数据规范化模块设计 |
5.3.4 绘制管柱模型模块设计 |
5.4 本章小结 |
第六章 实验结果分析 |
6.1 管柱变形检测实验 |
6.2 管柱三维建模实验 |
6.3 本章小结 |
第七章 总结与展望 |
7.1 总结 |
7.2 工作展望 |
致谢 |
参考文献 |
攻读学位期间参加的科研情况及获得学术成果 |
(4)基于一维图像组合的空间目标位姿测量关键技术研究(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 课题背景及研究目的和意义 |
1.2 位姿测量技术的发展概况 |
1.2.1 位姿测量理论概述 |
1.2.2 基于光学图像位姿测量理论及研究现状 |
1.2.3 像机标定理论及国内外研究现状 |
1.3 线阵CCD位姿测量理论及技术研究现状 |
1.3.1 线阵CCD位姿测量的国内外研究现状 |
1.3.2 线阵像机标定理论及研究现状 |
1.3.3 线阵光学图像位姿测量技术存在的问题 |
1.4 本文的主要研究内容 |
第2章 光学系统测量原理及像点识别定位技术研究 |
2.1 引言 |
2.2 基于一维的多目视觉组合测量系统原理 |
2.2.1 一维成像单元交会组合测量模型 |
2.2.2 传感器相对测量基准线角偏置范围对视场范围影响 |
2.3 一维图像信号去噪技术及改进算法 |
2.3.1 一维信号的小波去噪技术及算法改进 |
2.3.2 实验结果及分析 |
2.4 改进的线阵光学图像的亚像素质心定位法 |
2.4.1 线阵CCD像点定位细分技术分析 |
2.4.2 基于自适应阈值的插值重心加权法质心定位 |
2.4.3 仿真验证 |
2.4.4 实际验证 |
2.5 本章小结 |
第3章 线阵CCD位姿测量系统的像机标定 |
3.1 引言 |
3.2 像机成像模型及其变换 |
3.2.1 面阵像机成像机制 |
3.2.2 线阵像机成像机制 |
3.3 摄像机畸变问题描述及模型建立 |
3.3.1 像机畸变 |
3.3.2 基于交比不变的线阵像机畸变校正数学模型 |
3.4 基于DLT的线阵像机标定技术 |
3.5 改进的线阵CCD的像机两步法标定 |
3.5.1 计算线阵CCD像机线性参数 |
3.5.2 基于交比不变的像差系数计算 |
3.5.3 像机参数的非线性优化 |
3.6 引入空间约束的多线阵像机标定误差补偿模型 |
3.7 实验验证 |
3.7.1 仿真数据验证 |
3.7.2 实际实验验证 |
3.8 本章小结 |
第4章 多线阵像机的高精度位姿估计及目标姿态解算 |
4.1 引言 |
4.2 位姿描述参数及测量坐标系的建立 |
4.2.1 空间目标位姿描述 |
4.2.2 位姿测量的模型及变换关系 |
4.3 多线阵像机的高精度位姿解算算法 |
4.3.1 正交迭代算法 |
4.3.2 多线阵像机系统位姿估计的高精度迭代算法 |
4.3.3 实验结果及分析 |
4.4 点合作目标姿态解算及一维检测的多目标跟踪识别技术 |
4.4.1 欧拉-四元数姿态解算数学描述 |
4.4.2 多线阵点合作目标的四元数姿态解算模型 |
4.4.3 强跟踪UKF算法在多线阵位姿系统中目标跟踪的应用 |
4.4.4 仿真分析 |
4.5 本章小结 |
第5章 实验结果与分析 |
5.1 实验平台系统组成 |
5.2 系统误差分析 |
5.3 硬件平台实验 |
5.3.1 空间运动目标三维重建精度验证 |
5.3.2 空间运动目标姿态角重构精度验证 |
5.3.3 重复性测试 |
5.4 本章小结 |
结论 |
参考文献 |
攻读博士学位期间发表的论文及其它成果 |
致谢 |
个人简历 |
(5)基于双目立体视觉的三维信息重建(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 论文研究背景与意义 |
1.2 Marr计算机视觉理论 |
1.3 双目立体视觉的国内外研究现状与发展方向 |
1.4 本文主要研究内容和结构 |
1.4.1 本文主要研究内容 |
1.4.2 论文结构安排 |
2 双目立体视觉系统分析 |
2.1 摄像机成像模型分析 |
2.1.1 摄像机小孔成像模型 |
2.1.2 摄像机非畸变模型中各坐标系之间的关系 |
2.1.3 摄像机畸变模型分析 |
2.2 双目立体视觉理论模型分析 |
2.2.1 双目立体视觉一般理论模型 |
2.2.2 对极几何原理 |
2.3 双目立体视觉平台的搭建 |
2.4 本章小结 |
3 双目摄像机的标定与图像预处理 |
3.1 摄像机标定基本概念 |
3.1.1 摄像机参数 |
3.1.2 标定方法介绍 |
3.1.3 张正友标定方法 |
3.2 图像预处理方法研究 |
3.2.1 图像预处理简介 |
3.2.2 图像灰度化 |
3.2.3 图像去噪方法 |
3.2.4 图像亮度差异平衡 |
3.2.5 图像锐化处理 |
3.3 摄像机标定过程及结果 |
3.4 图像预处理过程与结果分析 |
3.4.1 图像预处理过程分析 |
3.4.2 图像预处理结果分析 |
3.5 本章小结 |
4 立体匹配算法研究 |
4.1 立体匹配的基本概念 |
4.1.1 基本步骤 |
4.1.2 匹配基元 |
4.1.3 约束准则 |
4.2 立体匹配算法分类 |
4.2.1 区域匹配算法 |
4.2.2 特征匹配算法 |
4.2.3 相位匹配算法 |
4.3 基于Census变换的立体匹配算法研究 |
4.3.1 传统Census算法 |
4.3.2 改进的Census算法 |
4.3.3 匹配代价聚合与视差计算 |
4.4 实验结果分析与对比 |
4.4.1 匹配代价评估 |
4.4.2 抗噪性评估 |
4.4.3 改进算法整体性能验证 |
4.5 本章小结 |
5 三维信息重建实验 |
5.1 双目立体视觉三维信息重建原理 |
5.1.1 非平行双目立体视觉模型求解 |
5.1.2 平行双目立体视觉模型求解 |
5.2 三维信息重建实验 |
5.3 实验结果与分析 |
5.4 本章小结 |
6 结论与展望 |
6.1 结论 |
6.2 创新点 |
6.3 展望 |
参考文献 |
附录 A 相关程序 |
作者简介 |
作者在攻读硕士学位期间获得的学术成果 |
致谢 |
(6)基于单目视觉的捡球机器人的关键技术研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 研究背景及意义 |
1.2 移动机器人发展现状 |
1.3 移动机器人关键技术发展现状 |
1.3.1 目标识别技术综述 |
1.3.2 目标定位技术综述 |
1.3.3 移动机器人路径规划技术综述 |
1.4 本文主要研究内容 |
第2章 球体目标识别 |
2.1 基于颜色特征的目标识别 |
2.1.1 颜色空间转换 |
2.1.2 彩色直方图均衡化 |
2.1.3 彩色图像分割 |
2.1.4 形态学操作 |
2.1.5 实验及结果分析 |
2.2 基于形状特征的目标识别 |
2.2.1 彩色图像灰度化 |
2.2.2 自适应阈值分割 |
2.2.3 Candy边缘检测 |
2.2.4 基于霍夫圆变换的圆的识别 |
2.2.5 实验及结果分析 |
2.3 基于颜色特征和形状特征融合的球体目标识别 |
2.4 本章小结 |
第3章 单目视觉目标测距 |
3.1 摄像机模型 |
3.1.1 摄像机线性模型 |
3.1.2 摄像机非线性模型 |
3.2 摄像机标定 |
3.2.1 张正友标定法 |
3.2.2 实验及结果分析 |
3.3 单目视觉目标测距 |
3.3.1 近地平面约束模型测距算法 |
3.3.2 实验及结果分析 |
3.4 本章小结 |
第4章 捡球机器人路径规划算法研究 |
4.1 多目标路径规划 |
4.1.1 局部多目标路径规划 |
4.1.2 全局多目标路径规划 |
4.1.3 仿真实验及结果分析 |
4.2 捡球机器人避障研究 |
4.2.1 传统人工势场法 |
4.2.2 基于静态障碍物改进的人工势场法 |
4.2.3 基于动态障碍物的改进人工势场法 |
4.3 捡球机器人全局路径规划 |
4.4 结论 |
总结和展望 |
总结 |
展望 |
参考文献 |
攻读硕士学位期间所发表的学术论文及科研成果 |
致谢 |
(7)基于地面信息的无人机自主定位技术研究(论文提纲范文)
摘要 |
abstract |
注释表 |
缩略词 |
第一章 绪论 |
1.1 课题研究背景及意义 |
1.2 国内外无人机自主定位研究现状 |
1.2.1 基于全球卫星导航系统的无人机定位技术 |
1.2.2 基于视觉的定位技术 |
1.2.3 基于多传感器融合的定位技术 |
1.3 本文的主要研究内容 |
第二章 基于无人机序列图像的三维点云重建 |
2.1 引言 |
2.2 稀疏点云三维重建 |
2.2.1 特征点的提取与匹配 |
2.2.2 摄像机运动估计 |
2.2.3 特征点深度值计算 |
2.3 稠密点云三维重建 |
2.3.1 极限搜索与块匹配 |
2.3.2 高斯分布的深度滤波器 |
2.4 稠密点云三维重建实验分析 |
2.4.1 摄像机运动估计仿真实验 |
2.4.2 稠密点云三维重建实验分析 |
2.5 本章小结 |
第三章 基于共形几何代数的三维点云配准 |
3.1 引言 |
3.2 共形几何代数 |
3.2.1 不同几何代数空间对点、线的表示 |
3.2.2 不同几何代数空间之间的转换关系 |
3.3 三维点云配准 |
3.3.1 共形几何代数中的刚体运动 |
3.3.2 共形几何代数描述的不同几何体间的约束关系 |
3.4 三维点云配准实验及分析 |
3.5 本章小结 |
第四章 基于地面信息的无人机自主定位 |
4.1 引言 |
4.2 无人机自主定位辅助坐标系 |
4.3 基于单点约束的无人机自主定位技术 |
4.3.1 单点约束的自主定位原理 |
4.3.2 自主定位计算过程 |
4.4 基于多点约束的无人机自主定位技术 |
4.4.1 多点约束的自主定位原理 |
4.4.2 多点约束的自主定位计算过程 |
4.5 无人机位置点的计算过程 |
4.6 本章小结 |
第五章 无人机自主定位仿真及性能分析 |
5.1 引言 |
5.2 MONTE-CARLO方法原理 |
5.3 误差分析模型 |
5.4 仿真与分析 |
5.5 本章小结 |
第六章 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
致谢 |
在学期间的研究成果及发表的学术论文 |
(8)基于立体视觉的增强现实技术研究及其应用(论文提纲范文)
中文摘要 |
Abstract |
第一章 引言 |
1.1 课题研究背景与意义 |
1.1.1 背景与意义 |
1.1.2 增强现实概述 |
1.1.3 增强现实相关技术 |
1.2 相关研究现状及发展 |
1.2.1 增强现实的国内外研究现状及发展 |
1.2.2 基于增强现实的手术导航的国内外研究现状及发展 |
1.3 课题研究目的和内容安排 |
第二章 增强现实技术理论基础 |
2.1 坐标系系统 |
2.1.1 参考坐标系及三维点在其坐标系的变换规律 |
2.1.2 各参考坐标系之间的变换 |
2.2 李群与李代数 |
2.2.1 李群 |
2.2.2 李代数 |
2.3 双目摄像机模型原理 |
2.3.1 针孔摄像机模型 |
2.3.2 双目摄像机成像模型及其立体标定 |
2.3.3 立体重建 |
2.4 位姿优化理论 |
2.4.1 光束平差法(Bundle Adjustment) |
2.4.2 基于梯度的优化方法 |
2.4.3 基于图优化的算法 |
2.5 渲染相关技术 |
2.5.1 OpenGL渲染 |
2.5.2 透视投影原理 |
2.6 本章小结 |
第三章 基于颜色一致性的3D/2D配准算法 |
3.1 基于颜色一致性的3D/2D配准 |
3.2 3D模型的可视点快速检测法 |
3.3 目标函数优化 |
3.4 实验结果与分析 |
3.4.1 仿真环境的设计 |
3.4.2 可视点检测 |
3.4.3 基于颜色一致性的3D /2D配准 |
3.5 本章小结 |
第四章 基于3D模型的摄像机定位算法 |
4.1 视觉里程计简介 |
4.2 基于3D模型的直接法 |
4.2.1 目标函数的导出 |
4.2.2 目标函数的求解 |
4.2.3 基于3D模型的局部地图优化 |
4.3 实验与结果分析 |
4.4 本章小结 |
第五章 基于立体视觉的摄像机定位算法 |
5.1 特征点提取与匹配 |
5.1.1 ORB特征点检测算法 |
5.1.2 ORB描述子匹配 |
5.1.3 立体匹配 |
5.1.4 帧间匹配 |
5.2 位姿优化 |
5.2.1 帧间位姿估计 |
5.2.2 局部地图优化 |
5.3 实验与结果分析 |
5.3.1 立体匹配算法性能分析 |
5.3.2 定位算法性能分析 |
5.3.2.1 直线运动分析 |
5.3.2.2 旋转运动分析 |
5.3.2.3 整体运动分析 |
5.4 本章小结 |
第六章 基于增强现实的仿真手术导航系统设计与实验 |
6.1 系统框架 |
6.2 仿真系统的实验流程及其结果分析 |
6.2.1 骨盆3D模型制作 |
6.2.2 摄像机标定 |
6.2.3 3D模型与真实骨盆的初始化配准显示 |
6.2.4 摄像机的定位实验与虚实融合显示 |
6.3 本章小结 |
总结与展望 |
参考文献 |
致谢 |
个人简历 |
在学期间的研究成果及发表的学术论文 |
(9)基于三维机器视觉的轮毂检测分选系统研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 课题研究背景和意义 |
1.2 国内外发展状况 |
1.2.1 机器视觉技术 |
1.2.2 三维机器视觉现状与研究内容 |
1.2.3 轮毂生产中识别分选技术的应用 |
1.3 论文的主要研究的内容 |
第2章 基于双目相机的三维机器视觉原理 |
2.1 引言 |
2.2 双目视觉系统组成 |
2.3 坐标映射原理与相机模型 |
2.3.1 坐标映射原理与相机模型 |
2.3.2 摄像机模型 |
2.4 双目视觉三维重建原理与研究步骤 |
2.4.1 双目视觉三维重建原理 |
2.4.2 基于双目相机三维视觉研究步骤 |
2.5 本章小结 |
第3章 摄像机标定与校正 |
3.1 引言 |
3.2 摄像机标定 |
3.2.1 摄像机标定法概述 |
3.2.2 张正友标定法 |
3.3 图像校正 |
3.3.1 图像矫正原理 |
3.3.2 图像矫正结果 |
3.4 本章小结 |
第4章 基于三维视觉的轮毂识别 |
4.1 引言 |
4.2 轮毂图像采集 |
4.3 图像预处理 |
4.3.1 图像去噪 |
4.3.2 数学形态学处理 |
4.3.3 图像分割 |
4.3.4 边缘检测 |
4.4 轮毂图像匹配 |
4.4.1 轮毂图像匹配特征提取 |
4.4.2 轮毂图像匹配 |
4.5 基于三维视觉轮毂特征提取与轮毂识别 |
4.5.1 轮毂图像三维重建 |
4.5.1.1 轮毂三维重建的实现 |
4.5.1.2 基于VTK软件的三维数据显示 |
4.5.2 轮毂直径与高度信息的获取 |
4.5.3 基于相关性分析法的轮毂识别 |
4.6 本章小结 |
第5章 轮毂检测分选系统方案设计 |
5.1 引言 |
5.2 轮毂检测分选系统硬件设计 |
5.2.1 轮毂检测总体设计 |
5.2.2 摄像机模块 |
5.2.3 工业计算机模块 |
5.2.4 分选模块 |
5.3 轮毂检测分选系统软件设计 |
5.3.1 软件总体功能 |
5.3.2 轮毂检测识别部分软件设计 |
5.3.3 轮毂检测与分选通信软件设计 |
5.3.4 轮毂分选部分软件设计 |
5.4 软件使用 |
5.5 本章小结 |
第6章 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
致谢 |
(10)基于动态识别定位的多机械手草莓收获机器人的研究(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 研究背景 |
1.2 草莓采摘机器人研究现状及分析 |
1.3 研究方案 |
第二章 草霉采摘机器人系统整体方案 |
2.1 总体架构 |
2.2 机器人作业流程 |
2.3 本章小结 |
第三章 草莓采摘机器人机械系统设计 |
3.1 多机械臂动态采摘果实的工作原理 |
3.2 工作空间的确定 |
3.3 末端执行器 |
3.4 机械臂 |
3.5 行走机构 |
3.6 机器人机械结构及各运动参数 |
3.7 本章小结 |
第四章 草莓果实的识别算法研究 |
4.1 图像分割 |
4.2 相互接触果实的分离 |
4.3 本章小结 |
第五章 草莓果实的动态定位 |
5.1 摄像机成像基本模型 |
5.2 基于视觉伺服草莓果实定位方法 |
5.3 基于双目视觉的果实定位方法 |
5.4 本章小结 |
第六章 草莓采摘机器人的控制系统 |
6.1 控制系统的架构 |
6.2 多机器人的任务分配 |
6.3 机器本体速度的调节 |
6.4 采摘机器人系统的控制流程 |
6.5 本章小结 |
第七章 采摘机器人的整机试验 |
7.1 采摘机器人系统简述 |
7.2 目标果实在世界坐标系的动态定位试验 |
7.3 机器人作业试验 |
第八章 结论及建议 |
8.1 结论 |
8.2 创新点 |
8.3 建议与展望 |
参考文献 |
致谢 |
作者简介 |
四、摄像机的光控技术及其应用(论文参考文献)
- [1]增强现实手术导航系统的投影显示技术综述[J]. 吴海滨,徐恺阳,于双,王爱丽,岩堀佑之,孙晓明. 光学精密工程, 2021(09)
- [2]基于双位置立体视觉的危化品库内三维重建技术研究[D]. 常梦洁. 北京石油化工学院, 2021(02)
- [3]管柱激光可视化三维扫描成像技术研究[D]. 雷宇. 西安石油大学, 2021(09)
- [4]基于一维图像组合的空间目标位姿测量关键技术研究[D]. 王艳. 哈尔滨工业大学, 2021(02)
- [5]基于双目立体视觉的三维信息重建[D]. 杨家琪. 沈阳建筑大学, 2021
- [6]基于单目视觉的捡球机器人的关键技术研究[D]. 陈卫. 江苏科技大学, 2019(03)
- [7]基于地面信息的无人机自主定位技术研究[D]. 徐喜梅. 南京航空航天大学, 2019(02)
- [8]基于立体视觉的增强现实技术研究及其应用[D]. 黄伟萍. 福州大学, 2018(03)
- [9]基于三维机器视觉的轮毂检测分选系统研究[D]. 殷宁宁. 东北大学, 2017(06)
- [10]基于动态识别定位的多机械手草莓收获机器人的研究[D]. 王粮局. 中国农业大学, 2016(04)