一、照相机原始数据图像的参数调整(论文文献综述)
张金[1](2021)在《目标识别数据集原始图像恢复算法多线程并行研究》文中认为近年来,随着机器学习浪潮的出现,基于机器学习的目标识别算法也得以蓬勃发展。目标识别算法当中,数据集与算法是两大关键因素。合适的数据集和良好的目标识别算法能够极大的提高目标识别的速度以及准确率。现阶段使用的数据集,都是基于数码相机生成的sRGB图像。图像经过图像信号处理器(Image Signal Processor,ISP)流程从原始图像转换成sRGB图像。但ISP流程各步骤对于目标识别准确率的影响不尽相同。为了明确ISP流程具体哪些步骤对于目标识别准确率影响较大,我们需要从原始图像出发,重新配置ISP各步骤进行实验。因此,提出一种能够将s RGB图像转换为原始图像的相关算法显得尤其重要。当前,关于如何将sRGB图像恢复成原始图像的研究方向可以分为传统的相机模型方法和基于机器学习的方法两大类。本文基于传统的相机模型方法,通过逆转图像信号处理器的各个步骤,来最终实现逆转整个ISP流程,将图像从sRGB图像恢复成原始图像。本文提出的InvISP(Invert Image Signal Processor,InvISP)模型,相较于传统的相机模型,根据图像传感器滤色器阵列的基本原理而产生的带有马赛克的原始图像,加入了逆向马赛克这一步骤。使得InvISP模型产生的原始图像能够恢复出马赛克信息。图像处理由于其运算复杂度大,往往需要耗费大量的计算时间。因此,为了加速图像处理,本文提出基于OpenMP的并行优化算法。能够节省计算时间,加快图像处理的过程。实验结果表明,相较于以往的基于相机模型的算法,InvISP模型可以在保证原始图像恢复的基础上,恢复出原始图像的马赛克信息,恢复出的原始图像峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)可以达到28.75dB,结构相似性(Structural Similarity,SSIM)能够达到0.86。本文利用OpenMP加速了图像处理的过程。2线程的情况下加速比能够达到1.6,4线程的情况下加速比能够达到2.1。通过本文所提出来的InvISP模型,可以有效的保障图像恢复的质量,加快图像的处理。
葛永杰[2](2021)在《基于深度学习的工业场景箱体字符识别与判断研究》文中提出随着计算机技术的发展,以深度学习为基础的人工智能不断应用在医疗、金融、安防等领域。同时,国家对制造业转型与升级十分重视,并采取多种有利举措,促进产业发展与“新经济”发展战略落地。因此以深度学习为基础的相关技术和方法也开始在工业领域出现,以科技赋能产业,促进工业制造向智能制造迈进。工业质检是制造业进行商品生产的一个重要环节,是提升产品质量与工艺技术水准、规范生产作业的重要途经。工厂将商品放入包装箱内是生产流程的必要一环,包装箱上印刷的产品批号和生产日期信息具有重要意义,出厂前须确保字迹清晰完整,不能出现漏印、错印、空白箱等情况,否则影响商品的流通与销售。目前,工厂中商品包装箱上字符文本检查的相关方法和应用产品较少,且实时性与效果不佳,主要处于人工检查阶段,未能实现实时自动化全覆盖检查。商品包装箱上的字符文本检查,可以利用光学字符识别的相关方法,实现生产线智能化箱体字符识别判断与商品全覆盖。针对上述应用场景与需求,本文提出了基于深度学习的工业场景箱体字符识别与判断算法,具体的研究工作如下:(1)本文针对应用场景建立了工业场景商品外观信息数据集。通过在工厂车间的生产线上布置工业相机与触发器等设备,对生产过程中的商品包装箱两侧进行图像实时采集,由于商品外观信息会随着季度更新变化,数据集中的箱体图像也会根据需要进行更新扩充,以保证算法应用的效果。(2)本文在商品箱体字符检测阶段应用了基于YOLOv3网络优化改进得到的G-YOLOv3,通过合并卷积层与批量归一化层,推理速度提升22%;通过引入GIo U,m AP提升7.5%,同时训练过程的收敛速度更快。由于检测网络的定位边界框在部分图像上出现无法包含完整字符文本的情况,而造成切割图像时字符残缺影响后续字符识别的问题,本文提出了边界框的调整方法,成功地解决了上述问题,为字符识别做好准备。(3)本文在商品箱体字符识别阶段采用了Tesseract,放弃了先分割后识别的方法,对原模型进行调优训练得到新的模型,使得箱体字符文本的置信度得到至少10%的提升。对文本区域图像采用高斯滤波、自适应阈值二值化等图像预处理操作,提高字符识别正确率。由于车间内各条生产线上的光线存在差异,导致拍摄获取的图像表面光线条件较差,文本区域图像明暗不均,进而对自适应阈值算法中的局部区域大小有不同的适用值,因此,本文提出了局部区域大小调整方案,来解决不同生产线不同商品箱体图像对局部区域大小有不同适用值的问题。(4)本文在商品箱体字符识别结果匹配判断阶段采用了自主设计的识别结果字符串分段匹配的方法。商品外观信息会随季度更新,以及拥有相同商品外观信息的图像由于光线的影响而存在差异,模板匹配方法需要人工定期更换模板图像,给算法的应用增加了人工成本。本文设计的识别结果字符串分段匹配的方法,从字符文本入手,与工厂管理系统相配合,减少了人工操作,使得算法更具自动化。(5)本文为了验证算法的有效性和应用前景进行了工厂生产线实测,实现了生产线上的商品全覆盖与实时监测,对每件商品完成拍照、检测识别和输出结果共耗时3.5秒左右,准确率达到了99.5%。
邓国军[3](2021)在《基于时空影像序列的大型桥梁结构全息动静性态监测方法探索》文中研究说明基于影像数据对桥梁结构服役状态进行安全监测,较传统以测点传感器为基础的监测系统具有全息、方便、经济的突出优势,并高度契合未来数字信息的发展趋势。本文在国家自然科学基金项目“基于影像轮廓线叠差分析获取桥梁全息变形及结构状态演绎方法探索(51778094)”和“基于桥面形态变化的桥梁安全状态监测方法与预警理论研究(51708068)”的资助下,本文系统研究了基于动静一体定轴旋转摄影的大型桥梁结构全息动静形态监测及损伤识别方法。主要研究工作如下:针对大型桥梁的结构行为监测,提出了定轴旋转时空序列影像采集方法。研究了定轴旋转空间序列影像基准图像坐标系建立准则,分析了定轴旋转相邻视域转角以及最大转角的约束,提出了结构动静一体影像采集策略;分析了相机旋转与影像重叠度的理论联系,推导了已知转角条件下相邻图像重叠度计算公式。设计了低成本、可调视域及高精度的结构动静一体影像采集硬件系统,分析了系统的三大误差来源,建立了相应的误差理论模型,并对误差的控制提出了相应的策略。依据结构变形连续性准则,提出静力作用下序列图像时空关系的建立方法。基于桥梁结构设计先验知识和样条拟合函数,研究了代表结构形态本质特征的本征轮廓线提取方法,构建了结构形态本征函数;以各视域本征函数为边界条件对机器视觉算法中的特征点提取进行约束,形成了结构轮廓线的追踪算法;同时,以本征函数对稠密光流算法进行约束,在保证位移追踪精度的同时减少算力的消耗;以时间、空间和角度等为参数,构建定轴旋转获取桥梁结构立面图像的时空序列影像数据集;依据各影像视域的透视关系和尺度不变特征转换,研究了序列影像空间关系的建立方法;以自锚式悬索模型桥为对象进行了多工况静力加载试验,分别用动静一体影像监测装置和百分表获取模型桥主梁挠度变化,验证了装置的精度,研究了全息形态曲线相较于有限测点数据的优势。为了提升动态影像中轮廓线的识别和追踪精度,提出一个基于边缘轮廓增强的图像超分辨率算法与摄影测量相结合的框架,将算法结构简单且效果优良的梯度提升图像超分辨率重建算法与视觉测量结合;确定了算法中决策树的深度D、收缩值v及迭代次数M等相关超参数,通过与经典浅度学习算法和深度学习算法对比,验证了该算法对结构边缘轮廓线的识别精度;为了验证该重建算法应用于位移测量的效果,设计了图像超分辨率算法与摄影测量相结合的实验框架,研究了不同重建倍率和不同位移模式下超分辨率重建算法对位移测量的提升效果。结合桥梁本征轮廓线形态函数和稠密光流算法,探索了基于分段视域桥梁视频数据获取结构边缘本征轮廓线在动载作用下的位移时程信息方法,将其解耦及时频域信息的转换运算获取各个方向的全息模态参数;研究了基于初始状态图像矩阵的视域模态透视转换方法,结合同名像素点匹配方法研究了各视域的模态坐标统一及匹配方法,形成空间影像序列获取大型桥梁结构全息模态参数的方法。以24 m长的自锚式悬索桥模型为试验对象,分别以动静一体影像监测装置和振动传感器采集模型桥的动力参数,验证该系统采集动力参数的精度,并研究了全息动力参数的特点;以李家沱大桥为对象研究了本文方法在工程实际应用中的应用特点,通过其健康监测系统验证了本文方法的有效性。结合模型桥不同工况下的结构静力全息形态和挠度曲率损伤识别方法,与常规测点位移计数据对比分析了全息挠度曲率结构损伤识别的特点;基于简支梁的数值分析,研究了高分辨率模态振型结合曲率模态理论进行结构损伤识别的特点;基于自锚式悬索模型桥多种损伤工况下的全息模态振型,与有限测点数据对比分析了全息曲率模态进行结构损伤识别的特点;针对曲率模态叠差线形作为模型桥损伤指标存在噪音较多等问题,研究了曲率模态叠差线形二次微分作为损伤识别指标的效果,并验证了其有效性。
丁廷波[4](2021)在《基于体检大数据眼底图像快速筛选方法的研究》文中提出现今眼科疾病已经成为一个世界性的话题,中国作为一个14亿人口的大国,60岁以上人群的眼底检查异常率均高于21.39%。日常生活中,人们意识到眼部患有疾病是非常困难的,因为在疾病的早期阶段很少见到明显症状。而人们对于眼睛的关心和保护也不充足,除了每年体检查看检测报告,没有明显病症的时候很少有人单独去检测眼睛情况。同时,我国眼科医生偏少,根据卫健委统计,我国目前只有3.2万名眼科医生,眼科医患比例低导致患者得不到及时的诊断和治疗,因此,通过眼底图像分析来实现对眼科疾病的快速筛查,迫切且必要。随着科学技术的发展,无创拍摄眼底图像眼底照相机的发明,给眼科病人的早期诊断带来了便利。而计算机技术以及各种图像处理技术的发展,运用卷积神经网络来辅助诊断眼科疾病也成为一种有效手段,如眼底图像筛查技术等现已成功运用于临床。但是这些眼科疾病诊断技术还只能运用在对单一眼科疾病的诊断上,例如单一的青光眼、糖尿病网膜病变以及先天性白内障的诊断,对于大规模的包含各种疾病的体检眼底图像,还缺乏相应的诊断技术以区分所有种类的眼底图像,未能实现快速筛查。本研究从大量体检眼底图像筛查问题出发,以疾病筛查精度与速度作为研究目标,使用卷积神经网络训练眼底图像数据集,获得了一个高精度的眼底图像疾病预测模型。首先对原始图像进行统一处理,把所有图像去除多余边框,标准化图像分辨率,对疾病图像进行增强处理;其次,运用处理后的图像在不同的卷积神经网络以及函数中,获得不同的预测结果,最终选取Inception V3模型为网络主体搭建程序;随后,深入分析眼底图像的结构特征,以及各种眼科疾病的临床症状,提出优化了增强图像的方法以及优化增强数据集的组成,提高了模型的训练速度;最后,使用医院采集的体检眼底图像来验证网络模型的实用性。眼底图像预测模型把所有眼科疾病分为正常、糖尿病视网膜病变、青光眼、白内障、年龄相关性黄斑、高血压视网膜病变、近视和其他疾病/异常8个类别。最终实验结果表明,眼底图像预测模型在实验中准确率为93.23%,经过体检眼底图像验证,模型的准确率为90.73%。而400幅眼底图像获得检测结果只需要3分20秒的时间,预测模型可有效的用于大规模体检眼底图像的快速筛选。与其它人的模型预测结果相比,本研究模型整体预测模型精准度比较稳定,单一眼科疾病的预测结果能接近临床使用结果。预测模型可以很好地利用眼底图像中的信息,可以在大规模体检眼底图像筛选中使用,可以给出每张图像各类疾病的预测概率。本研究模型可以提早发现眼底图像中存在疾病信息,辅助医生诊断眼科疾病,帮助病人及时接受治疗。
张新新[5](2021)在《基于深度学习的糖尿病视网膜病变分期方法研究》文中认为糖尿病视网膜病变(Diabetic Retinopathy,DR)是糖尿病最为严重的并发症之一。目前DR检测主要依赖于眼科医生对眼底图像的详细分析,从而根据不同患者的检测结果制定不同的治疗方案。然而,人工诊断耗时长,效率低,快速增长的眼底病变患者与匮乏的眼科医生数量给DR检测带来了巨大挑战。为了针对不同的分期制定不同的治疗方案,实现DR自动分期对推广大规模DR诊断有着极为重要的意义。针对DR自动分期任务,本文提出了一种基于SE-MIDNet(Densely connected Networks based on SE and Modified Inception)的糖尿病视网膜病变分期方法。针对数据集图像病变特征不明显的问题,本文对数据集的对比度、亮度、色彩平衡进行了调整,突出病变特征。针对数据集类别之间数量不平衡的问题,本文采用过采样方法平衡数据集。针对病变区域大小不同导致网络较深时易丢失小目标特征的问题,本文首先提出了改进的Inception模块,使得网络能够高效提取DR图像的多尺度特征,从而增强网络的特征学习能力;然后采用密集连接方法将改进的Inception模块的输出特征图拼接起来送入后续层,使得每个改进的Inception模块都可以直接从损失函数和原始输入图像数据中获得梯度,降低网络训练过程的复杂度,实现DR图像的多尺度特征重用,增强小目标特征表示;最后利用通道注意力模块(Squeeze-and-Excitation,SE)获得特征图在每个通道上的全局信息,依赖这些信息对各通道进行动态的非线性建模,自适应区分不同特征的重要程度,并根据重要程度加权,从而提高网络的泛化能力。实验结果表明,针对DR图像数据集,改进的Inception模块能够高效的提取DR图像的细节特征,提升DR图像的分期准确率。本文设计的网络DR自动分期的准确度达到88.24%,灵敏度达到99.43%,特异性达到97.60%,结构能够实现DR自动分期的目标,具有良好的泛化能力。
黄飞虎[6](2021)在《高精度三维人脸识别技术及其门禁应用研究》文中提出得利于深度学习的发展与大规模训练数据的积累,最近几年人脸识别技术取得了巨大的成功。其中,传统的二维人脸识别技术通过对人脸的纹理数据进行特征表达,并通过判断特征间的相似度对人脸进行身份确认。人脸姿态、妆容,特别是环境光照对获取到的二维纹理信息有着较大的影响,进而影响二维人脸识别算法的识别性能,也限制了二维人脸识别系统的应用场景。三维人脸识别技术使用人脸的三维深度信息对人脸身份进行鉴别。这使得三维人脸识别的方法可以很好地规避二维人脸识别的上述缺点。如何快速准确地对人脸数据进行三维重建,同时完成对三维人脸识别算法模型进行有效约束优化是三维人脸识别技术及其应用亟待解决的问题。本文面向人脸的三维重建,针对门禁类应用场景构建高精度高防伪三维人脸识别算法进行了系统的研究。本文的主要工作和创新点包括:1.设计实现了基于条纹结构光的三维人脸重建算法以及与之对应的三维人脸照相机系统。在人脸识别系统的应用过程中二维人脸技术极易受到环境光照、人脸姿态等客观因素的影响,导致识别性能下降。仅使用人脸深度信息的三维人脸识别技术可以很好地规避二维人脸识别的这些劣势。快速准确地获取三维人脸数据是三维人脸识别的前提。高速高精度三维人脸照相机能够为三维人脸识别技术与应用提供数据基础;2.人脸识别应用中,人脸误识问题就是样本特征的类内距离大于类间距离的问题。为了最大限度地减小类内距离,降低人脸识别误识概率,提出了Improve-Center人脸识别监督方法。该方法基于每个身份的人脸样本形成的特征子空间,通过增加子空间外层样本对模型优化的贡献,最小化类内样本之间的特征距离,提升算法的识别性能。3.传统的人脸识别算法通过样本对的方式组织训练数据。这样,模型的优化过程中仅仅利用很小部分的相关信息对模型进行优化。这种过于局部化的监督信息可能导致类内特征分布不均衡,类内样本中不同特征之间的相似度差异较大。基于所有类内样本特征组成的特征子空间形成的空间中心,提出的Cosmos-Loss损失函数在对模型进行优化的过程中,使用样本特征与特征中心之间的监督信息完成该样本的类内以及类间监督,提升了人脸识别性能与类内特征数据分布均衡性。4.针对门禁应用,基于Improve-Center与Cosmos-Loss两种监督函数提出了高精度高防伪三维人脸识别算法,实现了高识别率的人脸识别方法。通过对训练数据进行双向数据增广的方式提升了算法对3D打印面具的防伪能力。此外,提出了基于双目人脸防伪以及多光谱人脸防伪方法,以增强人脸识别系统的防伪能力。最后,针对佩戴口罩的特殊应用场景设计实现了口罩版人脸识别算法。
刘俊涛[7](2020)在《针对糖尿病视网膜病变区域自动检测系统的应用研究》文中提出随着近年来全球糖尿病患者数量的增多,作为其并发症的糖尿病视网膜病变受到越来越多的关注,该类并发症致盲的概率非常高,目前许多国家都将这种并发症列入了国家普查计划。硬性渗出物作为糖尿病视网膜病变的初期过渡病变特征,成为眼底检查的重点检查对象,对它的检测可以实现对病变的初期诊断。面对数量巨大的待检查人群,在进行眼底检查的过程中需要借助更便携的检查设备或更精准的计算机视觉处理辅助诊断技术以提高检测效率。在对图像质量要求不高的前提下,便捷式的眼底检查设备不仅可以降低患者医疗检查成本,还可以促进医疗普查计划的开展;其次,由于眼底病变的检测效率和检测结果容易受人为因素的限制和主观判断的影响,利用计算机视觉处理和分析技术可以实现对彩色眼底图像客观精确的处理,使得相关硬性渗出物区域都能被精确分割和智能化分析,从而为医生提供有效的辅助信息,提高诊断的效率和准确性。因此,文中分别从眼底检查设备和渗出物自动检测技术两个方面展开了研究。眼底检查设备方面,设计了一种便捷式非散瞳智能眼底照相机设备,该设备借鉴了间接检眼镜的成像原理,系统结构主要分为图像采集模块、主控模块和显示模块,当调整好图像采集模块中各子模块之间的相对位置后,成像结果即可在屏幕上实时显示。该眼底照相机设备整体结构简单、可操控性较强,具有较好的应用前景。眼底渗出物自动检测技术方面,主要从传统图像处理方法和深度学习方法两个方向展开相关研究。基于传统图像处理技术的检测方法可以划分为候选渗出物区域的提取和精细渗出物区域的筛选这两个阶段,在候选渗出物区域的提取阶段,首先对原始图像依次进行亮度均衡、图像对比度增强和阴影校正的预处理操作,然后提取经过图像对比度增强后图像的绿色通道图,将其与经过阴影校正后的图像作为特征图像数据集用FCM聚类算法提取出候选渗出物区域。在精细渗出物区域的筛选阶段,利用基于人眼视觉特性的边缘感知模型筛除伪渗出物区域后,移除视盘区域即可得到精细的渗出物区域。基于深度学习技术的检测方法分别研究了数据扩充采样和网络模型设计,通过定量分块采样的方式解决了数据集不足和正负样本不均衡的问题,设计出一种融入注意力机制和残差网络的改进U-Net网络模型,使用该模型实现了眼底渗出物区域的检测。本文提出的两种算法都在公开数据集IDRID上进行了测试,根据测试结果和与其他算法的对比结果可知,提出的两种算法都能够有效提取出眼底图像中的渗出物,体现了算法的优越性和可行性。
杨敬文[8](2020)在《基于深度学习的视网膜图像血管分割与心血管风险因子预测算法研究》文中研究指明视网膜眼底血管作为人体内在无创伤条件下,唯一可供观察的内部血管系统,一直受到研究人员的广泛关注。眼底图像包含了与疾病相关的丰富信息,人体很多重要的全身性系统疾病都会在眼底引起特定反应,因此眼底图像被广泛应用于医学辅助诊断领域。例如,大量的临床实验表明,糖尿病视网膜病变和视网膜动静脉的异常相关,此外,高血压以及一些胰腺疾病等会引起视网膜血管的异常。对视网膜血管进行定量和定性的分析,为诸多疾病,尤其是慢性病的预防、诊断、监测和管理起到非常重要的作用。因此,自动分析视网膜图像,以及精确分割视网膜血管和动静脉,对疾病的分析和诊断具有重要意义。由于视网膜血管图像结构复杂,依靠眼科医生等医务人员手动分析是一项耗时又昂贵的任务。因此,众多基于图像处理和深度学习的视网膜血管和动静脉分割方法被提出来,包括全自动和半自动方法,但大部分算法均存在着视网膜动静脉分割不连续问题,即血管段不相接或者同一类血管内含有不同类的血管,这一问题导致它们难以直接应用于临床数据。基于此,本文提出了拓扑结构损失对血管连续性进行约束。本文的主要内容如下:首先,本文对视网膜血管的研究背景、现状和意义进行简要阐述。其次,本文简要介绍视网膜血管和动静脉分割流程,图像处理的相关技术和卷积神经网络在视网膜图像上的应用;进一步地,针对微小血管难以分割的问题,提出了基于注意力机制的视网膜血管分割模型,在此基础上,针对视网膜动静脉分割不连续的问题,引入拓扑结构对其进行约束,同时,结合生成对抗网络和拓扑结构约束项,实现对视网膜动静脉的全自动分割;最后,将模型应用于基于视网膜图像的心血管风险因子预测这一现实场景,以期发现可用于预防和诊断疾病的临床标记。本文使用的数据包含广东省第一人民医院眼科中心收集的数据以及两个公开数据集DRIVE和STARE,通过与现有的方法进行分析比较,证明了本文提出的方法的鲁棒性、有效性和准确性。
马杨杰[9](2020)在《基于多探测器椭圆轨道单光子发射断层成像模型及局部图像重建算法研究》文中认为单光子发射断层成像技术(Single Photon Emission Computed Tomography,SPECT)作为一种功能性成像技术,可以观察人体内部的新陈代谢情况,对疾病的早期诊断具有重要意义。然而,传统的SPECT结构会导致图像重建过程中出现一些问题,例如图像分辨率低、信噪比低、灵敏度差等。因此,克服传统SPECT重建过程中的缺陷,生成清晰、有效的重建图像受到越来越多的重视。然而,许多学者的研究重点是心肌灌注成像的注射药剂,很少涉及到SPECT设备的结构,因此,SPECT设备的固有缺陷没有得到很好的解决。所以,解决传统SPECT设备的固有缺陷,发展图像分辨率高、信噪比强、灵敏度高的SPECT成像设备具有重要的实际意义。本文针对传统SPECT设备在检测心脏疾病时的缺陷,提出了新一代的SPECT模型E-SPECT,该模型专门用于心脏疾病的检测,并在此基础上开展相应的仿真模拟和算法研究。主要工作内容包括:(1)对SPECT的设备结构和成像原理进行了阐述,分析SPECT重建图像质量差的原因。在此基础上,提出了具有椭圆轨道、多探测器的新一代SPECT成像模型E-SPECT。除此之外,还在E-SPECT模型的基础上集成了计算机断层成像(Computed Tomography,CT)设备用于衰减补偿和多模态成像。(2)使用有序子集期望最大化(Ordered Subsets Expectation Maximization,OSEM)算法对提出的E-SPECT模型进行仿真研究。首先,从衰减补偿和身体轮廓先验知识两个方面验证了使用CT设备可以有效的提高重建图像质量的结论。其次,对重建图像的分辨率进行了模拟,验证了E-SPECT的图像分辨率为4.9mm这一结论,证明了E-SPECT的分辨率比传统SPECT的分辨率有所提高。最后,提出了基于最小二乘惩罚函数的OSEM重建算法(Least Square And Median Filtering OSEM algorithm,LSM-OSEM)来平滑因数据截断而造成的伪影。(3)提出了基于全变分(Total Variation,TV)的OSEM重建算法(Attenuation Correction and Total Variation OSEM algorithm,ACTV-OSEM)。SPECT局部重建问题属于经典的不适定反问题,虽然现有的迭代方法能够在一定程度上重建出局部图像,但是由于数据被截断,重建区域外的图像存在严重的伪影。而最小化TV范数能够有效的平滑图像的伪影,从而提高重建区域的质量。本文通过计算机模拟了OSEM、ASD-POCS、LSM-OSEM和ACTV-OSEM这四种算法的重建图像,经过对比分析,发现ACTV-OSEM算法不仅能够有效的平滑图像,且可以保证重建区域的质量。
代光政[10](2020)在《利用深度学习技术探索心血管风险因素对视网膜微血管的影响》文中认为第一部分:基于视网膜眼底照片利用深度学习技术探索高血压对视网膜微血管的影响背景:视网膜微血管作为心血管系统的组成部分,由于其表型信息可在活体上直接获取并可进行一系列定性和定量分析,所以大量研究试图建立眼底影像中视网膜微血管异常信号与全身各处血管病理性改变的关联性,将视网膜微血管异常信号作为心血管疾病的潜在预警信号。目的:高血压是主要的心血管风险因子,对视网膜微血管的结构和功能有显着的影响。通过深度学习的可视化技术,分析高血压状态下眼底影像中视网膜微血管形态学改变的显着特征。材料和方法:2017年05月至2018年12期间,由于眼部疾病来沈阳何氏眼科医院就诊的住院患者。根据排除标准,最终共735名高血压患者(1007只眼)纳入研究,其中男性274人,女性461人,年龄29~92岁,平均66.47±9.06岁;非高血压人群684人(1005只眼),其中男性326人,女性358人,年龄31~88岁,平均61.27±10.48岁。使用45°彩色立体眼底照相机以黄斑为焦点为两只眼睛依次拍摄,每张视网膜照片包括视盘、黄斑和视网膜微血管。利用自适应直方图均衡以及Gamma校正对眼底照片进行增强处理,增加图像对比度,突出视网膜微血管结构,建立眼底照片的“增强数据集”,共包括2012张眼底图像,其中高血压1007张,非高血压1005张。利用训练好的U-net模型,对视网膜照片进行语义分割,仅保留视网膜微血管结构,建立眼底照片的“分割数据集”,每一张图像都与“增强数据集”眼底图像一一对应。高血压眼底图像的标签为1,非高血压眼底图像的标签为0。建立用于图像分类的深度卷积神经网络,分别利用“增强数据集”和“分割数据集”训练模型。将数据集中的眼底照片随机分为5组,使用5折交叉验证,每次取一组样本作为测试集,不参与模型的训练,余下四组样本作为开发集用于模型训练,总共进行5次训练和测试。使用总体准确率(Accuracy)、总体特异度(Specificity)、高血压的精确率(Precision)、高血压的召回率(Recall)以及ROC曲线下面积(AUC)来评估模型分类效果。使用“分割数据集”,利用基于梯度的类激活图(Grad-CAM)分别绘制“高血压”类以及“非高血压”类激活热力图。结果:对于“增强数据集”,模型在测试集上的表现:总体准确率为56.76%,总体特异度为63.80%,高血压预测精确率为58.97%,高血压召回率为49.93%,ROC曲线下面积为0.6069。对于“分割数据集”,模型在测试集上的表现:总体准确率和高血压召回率较前有所提升,分别为60.94%和70.48%,高血压预测精确率较前相仿为59.27%,但是总体特度下降为51.54%。ROC曲线下面积为0.6506,较前有明显提升。类激活热力图显示,对于“高血压”类,红色热区呈不连续的斑片状分布,主要位于视网膜微血管的二分叉区域。这些二分叉区域包括视网膜微动脉的分叉,也包括视网膜微静脉的分叉,还有一些图片的红色区域分布于微动脉和微静脉的交叉处。对于“非高血压”类,红色热区沿视网膜微血管走行成连续分布。结论:视网膜微血管二分叉模式的改变是高血压状态下视网膜微血管最显着的形态学特征。第二部分:基于视网膜眼底照片利用深度学习技术探索糖尿病对视网膜微血管的影响背景:视网膜微血管作为心血管系统的组成部分,由于其表型信息可在活体上直接获取并可进行一系列定性和定量分析,所以大量研究试图建立眼底影像中视网膜微血管异常信号与全身各处血管病理性改变的关联性,将视网膜微血管异常信号作为心血管疾病的潜在预警信号。目的:糖尿病是主要的心血管风险因子,对视网膜微血管的结构和功能有显着的影响。通过深度学习的可视化技术,分析糖尿病状态下眼底影像中视网膜微血管形态学改变的显着特征。材料和方法:2017年05月至2018年12期间,由于眼部疾病来沈阳何氏眼科医院就诊的住院患者。根据排除标准,最终共479名糖尿病患者(534只眼)纳入研究,其中男性261人,女性218人,年龄27~88岁,平均61.19±10.35岁;非糖尿病人群375人(550只眼),其中男性183人,女性192人,年龄31~88岁,平均60.74±10.25岁。使用45°彩色立体眼底照相机以黄斑为焦点为两只眼睛依次拍摄,每张视网膜照片包括视盘、黄斑和视网膜微血管。利用自适应直方图均衡以及Gamma校正对眼底照片进行增强处理,增加图像对比度,突出视网膜微血管结构,建立眼底照片的“增强数据集”,共包括1084张眼底图像,其中糖尿病534张,非糖尿病550张。利用训练好的U-net模型,对视网膜照片进行语义分割,仅保留视网膜微血管结构,建立眼底照片的“分割数据集”,每一张图像都与“增强数据集”眼底图像一一对应。糖尿病眼底图像的标签为1,非糖尿病眼底图像的标签为0。建立用于图像分类的深度卷积神经网络,分别利用“增强数据集”和“分割数据集”训练模型。将数据集中的眼底照片随机分为5组,使用5折交叉验证,每次取一组样本作为测试集,不参与模型的训练,余下四组样本作为开发集用于模型训练,总共进行5次训练和测试。使用总体准确率(Accuracy)、总体特异度(Specificity)、糖尿病的精确率(Precision)、糖尿病的召回率(Recall)以及ROC曲线下面积(AUC)来评估模型分类效果。使用“增强数据集”,利用基于梯度的类激活图(Grad-CAM)绘制“糖尿病”类激活热力图。使用“分割数据集”绘制“糖尿病”类以及“非糖尿病”类激活热力图。结果:对于“分割数据集”,模型在测试集上的表现:总体准确率为65.78%,总体特异度为71.12%,糖尿病预测精确率为66.52%,糖尿病召回率为60.22%,ROC曲线下面积为0.7003。对于“增强数据集”,模型在测试集上的各项评价指标均明显上升,总体准确率为74.82%,总体特异度为77.62%,糖尿病预测精确率为75.69%,糖尿病召回率为72.04%,ROC曲线下面积为0.8324。对于“增强数据集”,“糖尿病”类激活热力图红色热区主要分布于四个区域:黄斑区、视盘周围区、视网膜病变区和视网膜微血管走行区。对于“分割数据集”,“糖尿病”类激活热力图红色热区主要分布于三个区域:斑片状红色热区分布于视网膜微血管的二分叉区域,这些二分叉区域包括视网膜微动脉的分叉,也包括视网膜微静脉的分叉,还有一些图片的红色区域分布于微动脉和微静脉的交叉处;条片状红色热区分布于视网膜微静脉干;条片状红色热区分布于视网膜微动脉干。对于“非糖尿病”类,红色热区沿视网膜微血管走行成连续分布。结论:相对于非糖尿病眼底图像,糖尿病眼底图像的主要形态学特征分布于四个区域:黄斑区、视盘周围区、视网膜病变区和视网膜微血管走行区。糖尿病状态下视网膜微血管形态学改变主要包括:视网膜微血管二分叉模式的改变、视网膜微动脉干形态改变和视网膜微静脉干形态改变。
二、照相机原始数据图像的参数调整(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、照相机原始数据图像的参数调整(论文提纲范文)
(1)目标识别数据集原始图像恢复算法多线程并行研究(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 图像恢复算法研究现状 |
1.2.2 并行计算研究现状 |
1.3 论文研究内容及论文结构 |
2 图像信号处理器算法与并行计算基础 |
2.1 图像信号处理器算法 |
2.1.1 相机响应函数 |
2.1.2 白平衡 |
2.1.3 颜色空间转换 |
2.1.4 色域映射 |
2.1.5 色调映射 |
2.1.6 去马赛克算法 |
2.2 并行计算基础 |
2.3 本章小结 |
3 InvISP模型 |
3.1 可行性分析 |
3.2 相机内成像模型 |
3.3 InvISP成像模型 |
3.4 本章小结 |
4 InvISP的逆向流程 |
4.1 逆向相机响应函数 |
4.2 逆向白平衡和颜色空间转换矩阵 |
4.3 逆向色域映射算法 |
4.4 逆向去马赛克算法 |
4.5 本章小结 |
5 基于OpenMP的 InvISP算法优化 |
5.1 基于OpenMP的并行化分析 |
5.2 基于OpenMP的并行化算法实现 |
5.3 本章小结 |
6 实验结果及分析 |
6.1 实验质量评估标准 |
6.1.1 峰值信噪比 |
6.1.2 结构相似性 |
6.1.3 加速比 |
6.2 实验环境 |
6.3 实验结果 |
6.4 基于OpenMP的优化结果分析 |
6.5 本章小结 |
结论 |
参考文献 |
致谢 |
(2)基于深度学习的工业场景箱体字符识别与判断研究(论文提纲范文)
摘要 |
Abstract |
第一章 引言 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.3 本文工作 |
1.4 本文组织结构 |
第二章 神经网络相关知识 |
2.1 神经网络的基础知识 |
2.2 卷积神经网络 |
2.2.1 基本原理 |
2.2.2 激活函数 |
2.2.3 损失函数 |
2.3 循环神经网络 |
2.3.1 基本原理 |
2.3.2 长短时记忆网络 |
2.4 神经网络训练优化 |
2.4.1 初始化 |
2.4.2 正则化 |
2.4.3 批量归一化 |
2.5 本章小结 |
第三章 数据集的制作及流程概述 |
3.1 图像采集与应用场景分析 |
3.1.1 工厂生产线图像采集 |
3.1.2 商品包装箱图像及场景分析 |
3.2 数据集的制作 |
3.2.1 文本检测数据集的制作 |
3.2.2 文本识别数据集的制作 |
3.3 识别与判断方法流程概述 |
3.4 本章小结 |
第四章 箱体字符文本检测定位与切割 |
4.1 文本检测算法 |
4.1.1 传统检测算法 |
4.1.2 基于深度学习的检测算法 |
4.2 基于改进YOLOv3 的文本检测算法 |
4.2.1 锚框计算 |
4.2.2 GIoU |
4.2.3 网络优化 |
4.3 实验对比分析 |
4.3.1 评价标准 |
4.3.2 结果分析 |
4.4 边界框的调整优化 |
4.5 本章小结 |
第五章 箱体字符文本识别 |
5.1 图像预处理设计 |
5.1.1 图像灰度化 |
5.1.2 图像滤波降噪 |
5.1.3 图像二值化 |
5.1.4 Blocksize调整 |
5.2 Tesseract训练与识别 |
5.3 本章小结 |
第六章 字符文本匹配判断与生产线实测 |
6.1 字符匹配方法 |
6.1.1 模板匹配 |
6.1.2 自主设计字符匹配方法 |
6.2 基于该方法的生产线实测 |
6.2.1 工厂应用场景简介 |
6.2.2 基于该方法的监测系统运行过程 |
6.3 本章小结 |
第七章 总结与展望 |
7.1 总结 |
7.2 展望 |
参考文献 |
致谢 |
攻读硕士学位期间取得的研究成果 |
攻读硕士学位期间参加的科研项目 |
(3)基于时空影像序列的大型桥梁结构全息动静性态监测方法探索(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 桥梁结构状态监测既有方法 |
1.2.1 常规安全监测方法 |
1.2.2 桥梁长期健康监测进展 |
1.3 基于机器视觉的桥梁健康监测方法研究现状 |
1.3.1 桥梁结构局部状态监测 |
1.3.2 桥梁结构整体状态监测 |
1.4 桥梁结构长期状态监测问题探讨 |
1.5 本文主要研究工作 |
1.5.1 本文主要研究内容 |
1.5.2 本文研究技术路线 |
第二章 大型桥梁动静形态监测的时空序列影像获取方法 |
2.1 定轴旋转采集桥梁结构动静影像数据的方法 |
2.1.1 桥梁状态时空序列影像数据采集方案 |
2.1.2 空间序列影像重叠度的几何关系 |
2.1.3 转动视域的角度约束 |
2.2 动静一体影像监测系统构成与应用 |
2.2.1 动静一体影像监测系统构成 |
2.2.2 针对自锚式悬索模型桥的动静影像采集 |
2.3 定轴旋转摄影系统误差分析 |
2.3.1 相机的标定 |
2.3.2 图像序列投影中心偏移误差及纠正方法 |
2.3.3 模糊度对位移监测的影响及处理方法 |
2.4 本章小结 |
第三章 定轴旋转摄影获取桥梁轮廓线全息变形方法 |
3.1 基于影像轮廓线的结构本征形态函数建立 |
3.1.1 结构影像特征提取既有方法及问题 |
3.1.2 结构本征轮廓线获取方法 |
3.2 定轴旋转时空序列图像间的关系 |
3.2.1 时空序列静态影像数据集 |
3.2.2 空间序列图像关系的建立 |
3.3 主梁本征形态函数约束下的轮廓线位移追踪算法 |
3.3.1 基于本征形态函数的特征点提取算法 |
3.3.2 基于稠密光流算法的改进位移追踪方法 |
3.4 桥梁轮廓线全息变形获取的试验验证 |
3.4.1 模型悬索桥加载试验与测试 |
3.4.2 主梁轮廓线全息变形分析与结果验证 |
3.5 本章小结 |
第四章 基于图像边缘增强的结构位移追踪精度提升方法 |
4.1 结构图像边缘增强的超分辨率算法 |
4.1.1 图像超分辨率重建理论 |
4.1.2 梯度提升的结构图像边缘增强 |
4.2 结构图像边缘增强试验验证 |
4.2.1 试验数据与参数优化 |
4.2.2 模型桥试验图像超分辨率结果对比 |
4.3 结构位移追踪精度提升试验验证 |
4.3.1 视觉测量试验设计 |
4.3.2 试验结果及分析 |
4.4 本章小结 |
第五章 基于定轴旋转视频获取大型桥梁全息模态的方法 |
5.1 基于动态影像的结构模态参数获取方法 |
5.1.1 视频数据的结构动态特征模态描述 |
5.1.2 基于视频的结构模态提取 |
5.2 空间序列影像获取桥梁全息模态参数方法 |
5.2.1 大型桥梁结构全息轮廓线的追踪方法 |
5.2.2 基于同名像素点的时空序列影像关系 |
5.3 悬索桥模型的动力试验验证 |
5.3.1 动力试验与测试方法 |
5.3.2 模型桥频率的提取 |
5.3.3 桥梁结构全息模态振型提取 |
5.4 定轴旋转视频获取李家沱大桥全息模态参数应用研究 |
5.4.1 李家沱大桥数据采集方法 |
5.4.2 李家沱大桥全息模态获取与验证 |
5.5 本章小结 |
第六章 基于结构动静全息形态变化的损伤识别方法 |
6.1 结构损伤引起的静力形态变化特征 |
6.1.1 结构损伤引起的挠度曲率变化 |
6.1.2 基于主梁全息变形的损伤识别 |
6.2 结构损伤引起的动力形态参数变化 |
6.2.1 结构损伤引起的曲率模态变化 |
6.2.2 表征主梁损伤的动力模态参数选取 |
6.3 基于悬索桥模型试验的结构损伤识别验证 |
6.3.1 基于全息曲率模态的损伤识别验证 |
6.3.2 基于曲率模态叠差线形的损伤识别改进方法 |
6.5 本章小结 |
第七章 结论及展望 |
7.1 本文主要工作与结论 |
7.2 主要创新点 |
7.3 研究展望 |
参考文献 |
在学期间发表的论文和取得的学术成果 |
致谢 |
(4)基于体检大数据眼底图像快速筛选方法的研究(论文提纲范文)
摘要 |
ABSTRACT |
1 绪论 |
1.1 眼科疾病背景 |
1.2 眼科技术研究现状 |
1.2.1 眼底照相机技术 |
1.2.2 卷积神经网络的发展和眼科应用 |
1.3 研究内容和创新点 |
1.3.1 研究内容 |
1.3.2 创新点 |
1.4 技术路线和各章节安排 |
1.5 小结 |
2 数据集及处理 |
2.1 数据集 |
2.2 数据集处理 |
2.2.1 图像处理 |
2.2.2 数据集扩增 |
2.3 眼底图像特征 |
2.4 小结 |
3 卷积神经网络 |
3.1 网络结构参数 |
3.2 三种网络模型 |
3.2.1 VGG16 |
3.2.2 INCEPTIONV3 |
3.2.3 XCEPTION |
3.3 模型训练流程以及评价指标 |
3.4 网络结构和函数选择 |
3.4.1 三个网络模型 |
3.4.2 优化器选择 |
3.4.3 图像分辨率 |
3.4.4 数据集数量 |
3.5 小结 |
4 数据分析和模型验证 |
4.1 数据集分析 |
4.1.1 眼底图像增强方法优化 |
4.1.2 眼底图像数据集优化 |
4.1.3 优化模型结果 |
4.2 预测模型优化与验证 |
4.2.1 INCEPTION网络参数优化 |
4.2.2 模型验证 |
4.3 实验环境 |
4.4 小结 |
5 总结和展望 |
5.1 总结 |
5.2 展望 |
致谢 |
参考文献 |
个人简历、在学期间发表的学术论文及取得的研究成果 |
(5)基于深度学习的糖尿病视网膜病变分期方法研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 课题研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 基于传统方法的DR分期研究 |
1.2.2 基于深度学习方法的DR分期研究 |
1.3 DR分期存在的难点 |
1.4 论文研究内容及组织结构 |
第二章 糖尿病视网膜病变分期数据集创建 |
2.1 眼底成像及病变分析 |
2.1.1 眼底图像采集 |
2.1.2 糖尿病视网膜病变分析 |
2.2 眼底图像预处理 |
2.2.1 数据集的获取 |
2.2.2 对比度调整 |
2.2.3 亮度调整 |
2.2.4 色彩平衡度调整 |
2.2.5 提取感兴趣区域并调整尺寸 |
2.3 类别不平衡处理 |
2.3.1 数据集不平衡情况 |
2.3.2 不平衡数据处理 |
2.4 本章小结 |
第三章 糖尿病视网膜病变分期网络结构 |
3.1 整体网络结构 |
3.2 改进的Inception模块 |
3.2.1 Inception模块的基本结构 |
3.2.2 改进的Inception模块的基本结构 |
3.3 跳跃连接 |
3.4 Squeeze-and-Excitation模块 |
3.5 网络结构超参数的设置 |
3.6 网络训练过程和方法 |
3.6.1 网络训练过程 |
3.6.2 网络训练方法 |
3.6.3 网络参数优化 |
3.7 本章小结 |
第四章 实验结果与分析 |
4.1 分类评价指标 |
4.2 糖尿病视网膜病变分期网络结构优化 |
4.2.1 特征可视化 |
4.2.2 预处理前后对比分析 |
4.2.3 SE模块超参数R分析 |
4.2.4 改进的Inception模块性能分析 |
4.3 实验结果分析 |
4.3.1 SE-MIDNet实验结果分析 |
4.3.2 错分图像分析 |
4.3.3 与经典CNN分类网络的对比 |
4.3.4 与已有眼底图像DR分期方法的对比 |
4.4 本章小结 |
第五章 总结与展望 |
5.1 总结 |
5.2 展望 |
参考文献 |
发表论文和参加科研情况 |
致谢 |
(6)高精度三维人脸识别技术及其门禁应用研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 研究背景及意义 |
1.2 研究现状及发展趋势 |
1.2.1 人脸识别研究现状 |
1.2.2 人脸防伪研究现状 |
1.3 本文的主要工作和贡献 |
1.4 本文结构 |
第2章 基于条纹结构光的高速高精度三维人脸照相机 |
2.1 问题概述 |
2.2 算法实现 |
2.2.1 三维人脸重建方法 |
2.2.2 算法优化 |
2.3 系统实现 |
2.4 本章小结 |
第3章 基于特征中心改进的损失函数 |
3.1 问题概述 |
3.2 基于特征中心改进的损失函数 |
3.3 实验与分析 |
3.3.1 在二维人脸识别数据上的测试 |
3.3.2 在三维人脸识别与二维人脸识别的实验对比 |
3.4 本章小结 |
第4章 基于特征中心的独立监督损失函数 |
4.1 问题概述 |
4.2 基于特征中心的独立监督损失函数 |
4.3 实验与分析 |
4.3.1 二维人脸识别算法实验 |
4.3.2 三维与二维人脸识别对比实验 |
4.4 本章小结 |
第5章 高精度高防伪三维人脸识别算法 |
5.1 问题概述 |
5.2 高精度高防伪三维人脸识别方法 |
5.3 人脸识别防伪任务辅助方法 |
5.3.1 双目人脸防伪 |
5.3.2 多光谱人脸防伪 |
5.4 基于三维人脸识别的门禁应用 |
5.5 本章小结 |
第6章 总结与展望 |
6.1 本文研究内容与主要贡献 |
6.1.1 实现基于条纹结构光的三维人脸重建算法以及硬件设计 |
6.1.2 提出Improve-Center与Cosmos-Loss两种人脸识别特征学习方法 |
6.1.3 提出高精度高防伪人脸识别方法 |
6.1.4 应用示范 |
6.2 工作展望 |
6.2.1 人脸识别算法目标函数下一步工作 |
6.2.2 三维人脸识别方法的下一步工作 |
6.2.3 人脸防伪下一步工作 |
参考文献 |
作者在读期间科研成果简介 |
致谢 |
(7)针对糖尿病视网膜病变区域自动检测系统的应用研究(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 课题研究及背景 |
1.2 国内外研究现状 |
1.2.1 眼底检查设备发展现状 |
1.2.2 眼底渗出物区域的分割研究现状 |
1.3 论文主要研究内容与结构安排 |
第二章 眼底图像渗出物区域检测的相关理论基础 |
2.1 眼底图像预处理 |
2.1.1 提取初始ROI区域 |
2.1.2 亮度校正 |
2.1.3 图像对比度增强 |
2.1.4 阴影校正 |
2.2 卷积神经网络 |
2.2.1 卷积神经网络的基本架构 |
2.2.2 卷积层 |
2.2.3 池化层 |
2.2.4 全连接层 |
2.3 语义分割网络 |
2.3.1 全卷积网络模型 |
2.3.2 U-Net模型 |
2.4 本章小结 |
第三章 便捷式眼底照相机的设计 |
3.1 引言 |
3.2 便捷式眼底照相机的总体结构设计 |
3.3 便捷式眼底照相机的主要模块设计 |
3.3.1 图像采集模块 |
3.3.2 主控模块和显示模块 |
3.3.3 设备运行效果与分析 |
3.4 本章小结 |
第四章 基于传统方法的视网膜硬性渗出物区域检测 |
4.1 引言 |
4.2 算法流程 |
4.3 候选渗出物区域的提取 |
4.3.1 预处理 |
4.3.2 聚类算法提取候选渗出物区域 |
4.4 渗出物区域的精细筛选 |
4.4.1 边缘感知模型 |
4.4.2 移除视盘 |
4.4.3 实验数据与评价指标 |
4.5 算法验证 |
4.5.1 聚类的参数选择 |
4.5.2 最终结果对比及分析 |
4.6 本章小结 |
第五章 基于深度学习的视网膜硬性渗出物区域检测 |
5.1 引言 |
5.2 相关技术原理论述 |
5.2.1 注意力机制 |
5.2.2 Resnet网络 |
5.3 引入注意力机制和残差结构的改进U-Net网络模型设计 |
5.3.1 实验数据准备 |
5.3.2 网络框架设计 |
5.4 实验结果与分析 |
5.4.1 实验数据与参数设计 |
5.4.2 评价指标与结果分析 |
5.5 本章小结 |
第六章 总结与展望 |
6.1 论文工作总结和创新点 |
6.2 工作展望 |
参考文献 |
致谢 |
攻读学位期间的研究成果 |
(8)基于深度学习的视网膜图像血管分割与心血管风险因子预测算法研究(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 课题的研究背景和意义 |
1.2 课题的研究现状 |
1.2.1 视网膜血管增强和分割算法 |
1.2.2 视网膜动静脉分割算法 |
1.2.3 视网膜图像对疾病的分析 |
1.3 存在的问题与解决思路 |
1.4 论文的组织结构 |
第二章 相关理论和技术 |
2.1 视网膜眼底成像技术 |
2.2 图像预处理技术 |
2.2.1 直方图均衡算法 |
2.2.2 自适应直方图均衡算法 |
2.2.3 对比度受限自适应直方图均衡算法 |
2.2.4 形态学操作 |
2.3 深度卷积神经网络 |
2.4 对抗模型GAN理论基础 |
2.4.1 最大似然估计 |
2.4.2 GAN的原理 |
2.4.3 训练GAN |
2.4.4 GAN存在的问题及解决方案 |
2.5 本章小结 |
第三章 基于注意力机制的血管分割方法 |
3.1 视网膜图像血管增强 |
3.2 基于注意力机制的视网膜血管分割模型 |
3.2.1 Squeeze-and-Excitation模块 |
3.2.2 视网膜血管分割模型 |
3.3 数据集与实验结果 |
3.3.1 数据集和评价指标 |
3.3.2 实验结果 |
3.4 本章小结 |
第四章 基于GAN和拓扑结构约束的动静脉分割方法 |
4.1 引言 |
4.2 预训练模型提取图像的特征 |
4.3 图像的相似度度量 |
4.3.1 均方误差 |
4.3.2 结构相似度指数 |
4.4 视网膜动静脉分割模型 |
4.5 实验结果及分析 |
4.5.1 数据集 |
4.5.2 实验设置及评价指标 |
4.5.3 动静脉分割可视化结果 |
4.5.4 拓扑结构损失与MSE损失对比 |
4.5.5 与现有方法的对比实验 |
4.5.6 与现有模型的对比实验 |
4.6 本章小结 |
第五章 视网膜图像和血管对心血管风险因子的预测 |
5.1 引言 |
5.2 迁移学习 |
5.3 数据集及评价指标 |
5.4 实验结果及分析 |
5.5 本章小结 |
总结与展望 |
总结 |
展望 |
参考文献 |
攻读硕士学位期间取得的研究成果 |
附件 |
致谢 |
(9)基于多探测器椭圆轨道单光子发射断层成像模型及局部图像重建算法研究(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 SPECT硬件研究现状 |
1.2.2 重建算法研究现状 |
1.3 本文研究内容 |
1.4 本文组织结构 |
第二章 相关理论基础 |
2.1 CT与 SPECT相关知识 |
2.1.1 CT相关知识 |
2.1.2 SPECT相关知识 |
2.2 解析类重建算法 |
2.2.1 Lambert-Beer定律 |
2.2.2 Radon变换 |
2.2.3 中心切片定理 |
2.2.4 滤波反投影算法 |
2.3 迭代类重建算法 |
2.3.1 代数迭代重建算法 |
2.3.2 统计迭代重建 |
2.4 评价指标 |
2.5 本章小结 |
第三章 新型SPECT和 CT混合模型E-SPECT |
3.1 引言 |
3.2 SPECT基本结构 |
3.3 新型SPECT模型 |
3.3.1 SPECT模型设计 |
3.3.2 Slit-Slat准直器设计 |
3.3.3 探测器选择 |
3.4 SPECT和 CT的混合模型 |
3.4.1 CT部分设计 |
3.4.2 CT部分重建算法 |
3.5 本章小结 |
第四章 基于E-SPECT模型的仿真模拟 |
4.1 引言 |
4.2 仿真模型简介 |
4.3 仿真模拟 |
4.3.1 CT衰减补偿仿真 |
4.3.2 身体轮廓约束仿真 |
4.3.3 重建图像分辨率仿真 |
4.4 基于惩罚项平滑伪影 |
4.4.1 算法推导 |
4.4.2 仿真实验 |
4.5 本章小结 |
第五章 基于TV的正则化重建算法 |
5.1 引言 |
5.2 稀疏优化理论简介 |
5.3 基于全变分模型正则化 |
5.3.1 全变分模型 |
5.3.2 基于TV的重建算法 |
5.3.3 仿真实验 |
5.4 对比分析 |
5.5 本章小结 |
第六章 总结与展望 |
6.1 全文总结 |
6.2 工作展望 |
致谢 |
参考文献 |
附录 |
详细摘要 |
(10)利用深度学习技术探索心血管风险因素对视网膜微血管的影响(论文提纲范文)
摘要 |
Abstract |
前言 |
第一部分:基于视网膜眼底照片利用深度学习技术探索高血压对视网膜微血管的影响 |
材料与方法 |
1.一般资料 |
1.1 研究人群 |
1.2 血压测量 |
1.3 实验室检查 |
1.4 诊断标准 |
2.眼底照相 |
2.1 患者准备 |
2.2 拍摄标准 |
3.原始眼底照片处理 |
3.1 原始眼底照片格式 |
3.2 眼底照片预处理 |
4.建立用于眼底照片分类的深度卷积神经网络 |
5.建立眼底照片数据集 |
5.1 建立眼底照片“增强数据集” |
5.2 建立眼底照片“分割数据集” |
6.训练CNN |
6.1 利用“增强数据集”训练CNN |
6.2 利用“分割数据集”训练训练CNN |
7.模型的评估方法 |
8.绘制类激活热力图 |
结果 |
1.迭代轮次 |
2.模型分类结果 |
3.类激活热力图 |
讨论 |
结论 |
第二部分:基于视网膜眼底照片利用深度学习技术探索糖尿病对视网膜微血管的影响 |
材料与方法 |
1.一般资料 |
1.1 研究人群 |
1.2 血压测量 |
1.3 实验室检查 |
1.4 诊断标准 |
2.眼底照相 |
2.1 患者准备 |
2.2 拍摄标准 |
3.原始眼底照片处理 |
3.1 原始眼底照片格式 |
3.2 眼底照片预处理 |
4.建立用于眼底照片分类的深度卷积神经网络 |
5.建立眼底照片数据集 |
5.1 建立眼底照片“增强数据集” |
5.2 建立眼底照片的“分割数据集” |
6.训练CNN |
6.1 利用“增强数据集”训练CNN |
6.2 利用“分割数据集”训练CNN |
7.模型的评估方法 |
8.绘制类激活热力图 |
结果 |
1.迭代轮次 |
2.模型分类结果 |
3.类激活热力图 |
讨论 |
结论 |
参考文献 |
综述 心血管系统的生物标记物—视网膜微血管信号 |
参考文献 |
攻读学位期间发表论文情况 |
致谢 |
四、照相机原始数据图像的参数调整(论文参考文献)
- [1]目标识别数据集原始图像恢复算法多线程并行研究[D]. 张金. 大连理工大学, 2021(01)
- [2]基于深度学习的工业场景箱体字符识别与判断研究[D]. 葛永杰. 西南大学, 2021(01)
- [3]基于时空影像序列的大型桥梁结构全息动静性态监测方法探索[D]. 邓国军. 重庆交通大学, 2021
- [4]基于体检大数据眼底图像快速筛选方法的研究[D]. 丁廷波. 重庆理工大学, 2021(02)
- [5]基于深度学习的糖尿病视网膜病变分期方法研究[D]. 张新新. 天津工业大学, 2021(01)
- [6]高精度三维人脸识别技术及其门禁应用研究[D]. 黄飞虎. 四川大学, 2021(01)
- [7]针对糖尿病视网膜病变区域自动检测系统的应用研究[D]. 刘俊涛. 江西理工大学, 2020(01)
- [8]基于深度学习的视网膜图像血管分割与心血管风险因子预测算法研究[D]. 杨敬文. 华南理工大学, 2020(02)
- [9]基于多探测器椭圆轨道单光子发射断层成像模型及局部图像重建算法研究[D]. 马杨杰. 杭州电子科技大学, 2020(04)
- [10]利用深度学习技术探索心血管风险因素对视网膜微血管的影响[D]. 代光政. 大连医科大学, 2020(02)