首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
针对皮肤病变区域尺度不同和形状不规则,传统U-Net网络方法缺乏从不同尺度分析目标的鲁棒性,并在提取图像高层语义特征时丢失部分空间上下文信息而影响后续分割精度等问题,提出一种基于U-Net多尺度和多维度特征融合的医学图像分割方法.首先,用空洞卷积融合不同尺度的空间上下文信息;其次,用通道上下文信息融合模块提取特征图各通...  相似文献   

2.
针对双分支实时语义分割算法存在双分支交互差、多尺度上下文信息提取不完善等问题,提出了基于双分支交互的实时语义分割网络(dual-branch interactive multi-scale fusion network for real-time semantic segmentation,DIMFNet)。算法以引导聚合双边语义分割网络(bilateral network with guided aggregation for real-time semantic segmentation, BiseNetV2)的双分支结构为基准进行改进,空间分支提取空间细节特征,上下文分支提取深层上下文特征。结合注意力思想提出注意力引导高级语义融合模块(attention guide high-level semantics fusion module,AGHSM)实现双分支的交互融合,以获得更好的空间特征表示;对金字塔池化模块进行改进,提出采用多层聚合金字塔池化模块(multi-layer aggregation pyramid pooling module,MAPPM)提取多尺度上下文特征,以...  相似文献   

3.
由于息肉图像的自动分割病灶区域大小不一和边界模糊,从而导致分割精度较低.针对这两个问题,本文提出先定位后逐步精细的渐进式消减网络(Progressive Reduction Network,PRNet).该网络采用Res2Net提取病灶区域特征,利用多尺度跨级融合模块将注意融合机制与跨级特征结合,有效应对病灶区域多尺度问题,提升定位准确度.在自上而下恢复图像分辨率的过程中,引入不确定区域处理模块和多尺度上下文感知模块.前者通过设定递减的阈值逐步挖掘息肉边缘信息,增强边缘细节特征的识别能力;后者则进一步探索病灶区域周围潜在的上下文语义,提升模型的整体表征能力.此外,本算法还设计了一个简单的特征过滤模块,用于筛选编码器特征中的有效信息.在Kvasir-SEG、CVC-Clinic和ETIS数据集上的实验结果表明,所提算法的Dice系数分别达到了92.09%、93.05%和74.19%,优于现有的息肉分割算法,展示出了较好的鲁棒性和泛化性.  相似文献   

4.
针对皮肤病变分割任务中病变区域大小不一、形状各异、内部像素差异大、边界模糊、周围存在气泡等问题,提出了一种基于密集多尺度特征和双注意力模块的U型分割网络DDAnet。该网络中的DenseASPP模块通过密集连接多个空洞卷积层来获取丰富的多尺度信息,同时由通道注意力模块(CAM)和位置注意力模块(PAM)构成的双注意力模块通过编码全局上下文信息,在通道和位置上对特征图进行重新配准,实现对相关特征的强调和对无关特征的抑制。两个模块并行连接、共同作用以提高分割精度。在ISIC2018数据集上,DDAnet的准确率(Acc)、Jaccard相似系数(JI)、Dice系数(DC)、敏感度(Sen)和特异性(Spec)指标值分别为96.75%、85.00%、91.36%、91.82%和97.42%,分割结果优于其他的分割网络,并且对于极具挑战的病例,DDAnet仍然能够产生准确、可靠的分割结果,说明其具备在临床诊断中辅助医生进行皮肤病变分割的潜力。  相似文献   

5.
针对视网膜血管分布复杂且多变,提出一种基于上下文特征提取的视网膜血管分割算法。首先通过霍特林变换(Karhunen-Loeve, K-L)生成灰度图并经过预处理增强对比度。然后经过局部信息熵进行采样。该网络编码部分的多感受野残差编码模块在兼顾速度的同时对特征进行充分的提取。同时底部的特征融合模块由非对称融合非局部模块和非对称金字塔非局部模块两部分组成,用于融合图片的上下文特征。而解码部分由多个微型U型网络组成,保证将底层特征和高层映射特征有效融合并进行深层次的再提取。本文算法在血管分割的数字视网膜图像数据集(digital retinal image for vessel extraction, DRIVE)数据集进行仿真,准确率为96.45%,特异性为98.37%,敏感度为82.7%,实验结果表明能有效地分割视网膜血管。  相似文献   

6.
为了解决经典分割算法对于视网膜血管分割精度不够的缺陷,通过将U-net3+(全尺度连接U形网络)应用于视网膜微血管分割,并加以改进来提高分割精度。首先利用U-net3+中的全尺度跳跃连接,提取更多尺度的视网膜微血管特征。针对细小血管难以捕捉的问题,将网络中的普通卷积换成可变卷积,它可以根据血管的形状、大小改变感受野的大小,提高算法的分割准确度。然后使用SFAM模块来优化U-net3+网络中的特征融合部分,保留更多的有用信息。在视网膜图像数据库上测试本文算法,结果表明,分割的平均准确率为97.63%,比传统的U-net网络和U-net3+网络分别提高了2.35%、0.99%。可见,改进算法有效提高了视网膜血管分割精度。  相似文献   

7.
指出了基于深度学习的图像语义分割中,如何充分利用图像上下文信息以达到更好的分割效果,是当前图像语义分割研究的关键问题.为解决这一问题,提出了一种基于多尺度特征提取的图像语义分割方法,通过构建深层卷积神经网络,并利用不同尺度图像作为网络的输入来提取不同尺度图像的特征,最后经过特征融合得到了分割图.在公开数据集Stanford background dataset 8类数据集上进行训练和验证,实验结果达到了84.33%的准确率.实验表明:通过提取和融合多尺度特征,可以达到更好的图像语义分割效果.  相似文献   

8.
为了解决U-net网络进行X光胸片肺野分割时,受限于特征提取能力不足导致分割结果不精确的问题,提出一种多尺度残差注意力U型网络(MRAU-net)模型.利用多尺度信息融合(MIF)模块,改善网络结构,增加对多尺度信息的获取;利用通道和空间双注意力(CSDA)模块,解决网络在有限算力下的信息过载问题.同时,对残差模块进行改进,并与U-net网络进行深度结合,提升网络的学习稳定性,缓解梯度消失和过拟合现象.实验结果表明:文中方法具有优秀的X光胸片肺野分割能力,能获得更精确的分割结果.  相似文献   

9.
针对传统深度卷积神经网络分类精度不佳,参数量巨大,难以在内存受限的设备上进行部署的问题,本文提出了一种多尺度并行融合的轻量级卷积神经网络架构PL-Net。首先,将上层输出特征图分别送入两种不同尺度的深度可分离卷积层;然后对并行输出特征信息进行交叉融合,并加入残差学习,设计了一种并行轻量型模块PL-Module;同时,为了更好地提取特征信息,利用尺度降维卷积模块SR-Module来替换传统池化层;最后将上述两个模块相互堆叠构建轻量级网络。在CIFAR10、Caltech256和101_food数据集上进行训练与测试,结果表明:与同等规模的传统CNN、MobileNet-V2网络及SqueezeNet网络相比,PL-Net在减少网络参数的同时,提升了网络的分类精度,适合在内存受限的设备上进行部署。  相似文献   

10.
为解决低光照条件下已有图像分割模型性能降低的问题,提出了一个基于RGB和深度图特征融合网络的MDF-ANet图像分割方法.为了对原始数据进行充分的特征学习,采用两路特征提取网络分别提取RGB和深度图特征;设计了一个特征融合模块,分别将两路特征提取网络对应尺度下的输出特征图通过融合模块进行融合,并作为RGB网络下一层的输入,通过不受光照条件影响的深度图来辅助RGB的特征提取;将各个尺度输出的特征图输入多尺度上采样融合模块,进行不同感受野间的信息互补,再上采样至原始输入图像大小,得到分割图像.在Cityscapes及其转化后的低光照图像上进行了一系列实验,在其验证集上取得了62.44%的均交并比(mean intersection over union,mIOU),相比只使用RGB输入的模型,性能提高了9.1%,达到了在低光照条件下提高图像分割性能的目的.   相似文献   

11.
由于X光胸片影像受到各类组织阴影及病灶的影响,目前肺野分割算法的结果往往存在空洞或者边缘不光滑等问题。针对此类问题,该文提出了一种基于多尺度卷积和特征金字塔的肺野分割网络,此网络利用多尺度卷积模块和多尺度特征融合模块提取和融合多尺度特征,在JSRT数据集上PA和Dice指标分别达到98.76%和97.94%,在Montgomery数据集上PA和Dice指标分别达到了98.96%和97.85%。该文将肺野分割网络进一步应用到肺炎筛查任务中,提出了一种基于肺野分割的数据增强方法,该方法通过分别“擦除”左右肺部的随机区域增加了样本的多样性,从而提高了肺炎分类任务的准确率。实验表明,这种数据增强方法可以将新冠肺炎检出率至少提高2.2%。  相似文献   

12.
为解决立体匹配网络模型轻量化与高精度不能共存的问题,本文提出新的立体匹配算法CSA-Net。算法具体是在特征提取阶段,利用类ResNet进行特征提取,训练空洞金字塔池化(ASPP)模块扩大感受野,提取多尺度上下文信息,加入联合注意力机制(CSM),在空间和通道维度提高表征能力,关注重要特征并抑制不必要的特征。在特征融合阶段,将2D深度可分离卷积提升到3D来代替原网络中标准3D卷积在空间维度和通道维度分别进行卷积运算,以降低特征融合网络的参数量与模型运行时间。最终实验表明,本文所提出的立体匹配网络模型在KITTI 2012和2015数据集进行验证,在三像素匹配误差率为1.44%和2.24%,模型运行时间减少近1/3。因此,相比于其他实现了更高的匹配精度和更快的运行速度。  相似文献   

13.
注意力机制能够挖掘与任务密切相关的重要信息并抑制非重要信息,在语义分割的深层特征表示中发挥着越来越重要的作用。本研究基于广泛应用的U-Net模型,提出了一种基于注意力机制的神经网络模型,针对边缘分割模糊的问题,将U-Net的压缩路径和扩展路径中的双卷积替换为卷积核选择模块,该模块允许网络的每一层根据输入信息进行自适应调整接受野的大小;另外,针对人像分割网络存在不同尺度的全局上下文信息被忽略的问题,采用多尺度预测融合的方法来利用不同尺度的全局信息,并采用双注意力模块汇总空间和通道两方面的注意力信息。大量实验表明,本文中方法的性能与U-Net、UNet++和Attention U-Net等网络相当或更好。  相似文献   

14.
语义分割的目标是对图像进行像素级分类并分割为表示不同语义的区域,以便实现对更复杂场景的分析及理解。考虑到更大的卷积核对目标的定位及分割都有促进作用,故提出的网络里使用了一种基于上下文情景结构层(contextual structure)的卷积神经网络,既增大了感受野的范围,同时解决了增大传统卷积核带来大量参数的问题。自然图像中的目标往往具有不同的尺度和纵横比,提取丰富的细节信息和上下文信息对于像素级的预测至关重要。提出的网络同时实现了多尺度特征的提取,从规模较小区域到规模较大区域,再到完整目标,可以有效提取局部信息和全局信息,达到分割多尺度目标的效果。实验中使用PASCAL VOC 2012数据集对提出的方法进行评测,在综合考虑算法复杂度以及运行时间效率的基础上,提出算法取得了更好的实验结果。  相似文献   

15.
现有的深度超分辨率重建模型,用堆叠多个相同模块的方式获取具有更高精度的重建结果,但未能充分考虑各层特征间的上下文关联信息.提出一种基于非局部多尺度融合的图像超分辨率重建模型.该模型采用3种模块:非局部模块、多尺度融合模块和宽激活残差模块.其中,非局部模块用于获取图像的全局特征,关注目标的核心区域;多尺度融合模块用于融合...  相似文献   

16.
卷积神经网络凭借其强大的表征能力,在图像超分辨率任务上取得了许多令人满意的结果。许多基于神经网络的方法采用增加网络深度的方式,存在存储空间消耗多、实用性不强的问题。为解决该问题,该文提出一种基于多尺度特征融合的属性感知人脸图像超分辨率网络。该文借助局部残差模块和逐元素相加的融合方式以减少网络复杂性并提炼出表征能力优秀的多尺度特征。该文构建一个可自适应地融合多尺度特征和人脸先验的属性感知模块,使得网络学习到更丰富的语义信息。该文提出的网络由多个网络子模块级联构成,并通过一个多层次特征融合模块进行共同学习。试验表明:该文方法能取得良好的超分辨率性能,输出更加真实的人脸图像,可以通过调整人脸属性信息进行人脸图像生成效果的操纵。  相似文献   

17.
针对视盘、视杯分割任务中,由青光眼病变引起目标大小显著变化导致的错误分割问题,提出一种使用更轻量级的编码器-解码器网络,并引入金字塔池化模块,通过网络丰富的感受野捕捉更多上下文特征,丰富尺度特征,充分利用全局信息.在数据集RIM-ONE v.3上进行多组对比实验和评估,实验结果表明,该方法对视盘分割的平均交并比为0.908, Dice系数为0.958,均方误差为0.002,比现有算法各项指标性能均有提高.  相似文献   

18.
文章提出了一种提升上下文依赖关系的增强语义分割网络模型PS-UNet实现医学图像分割. PS-UNet将残差块、PCA模块和SPP模块融合到U-Net网络模型中,可获取更多的特征信息,从而提升分割效果.该模型既可以对器官轮廓粗分割又可以对视网膜血管和细胞精细分割.在公开的数据集上分别对肺部、视网膜血管和细胞分割进行了测试.实验结果表明,与当前先进网络模型相比,PS-UNet在所有实验中,性能均有所提升,其中肺部分割中准确率和灵敏度相对于U-Net网络模型分别提高了2.03%和2.24%,Dice相似系数达到了97.16%.  相似文献   

19.
视网膜血管复杂且背景与视杯视盘区域相似,是造成视杯视盘分割精度不高的原因。为了更加准确地分割视杯视盘,设计了一种具有双支路特征融合的分割网络。网络主支使用Transformer对特征进行提取,弥补了卷积运算在建立远程关系方面存在的不足。采用多个模块来融合浅层空间特征与高级语义特征:尺度感知-特征融合模块(SCA-FFM)用于从高层次特征中收集视盘和视杯的语义和位置信息;识别模块(IM)利用注意力机制减少低层次特征中存在的错误信息和噪声,增强空间细节特征的提取;使用图卷积域-特征融合模块(GCD-FFM)将高级语义特征和低级特征进行融合,使特征图同时具有全局和局部信息。对比实验表明,本文方法表现出更好的分割效果,且具备良好的泛化能力。  相似文献   

20.
目的 估计获取拍摄物体到相机之间距离的深度信息是单目视觉 SLAM 中获取深度信息的方法,针对无监督 单目深度估计算法出现精度不足以及误差较大的问题,提出基于多尺度特征融合的混合注意力机制的连续帧深度 估计网络。 方法 通过深度估计和位姿估计的两种编码器解码器结构分别得到深度信息和 6 自由度的位姿信息,深 度信息和位姿信息进行图像重建与原图损失计算输出深度信息,深度估计解码器编码器结构构成 U 型网络,位姿 估计网络和深度估计网络使用同一个编码器,通过位姿估计解码器输出位姿信息;在编码器中使用混合注意力机 制 CBAM 网络结合 ResNet 网络提取四个不同尺度的特征图,为了提升估计的深度信息轮廓细节在提取的每个不 同尺度的特征中再进行分配可学习权重系数提取局部和全局特征再和原始特征进行融合。 结果 在 KITTI 数据集 上进行训练同时进行误差以及精度评估,最后还进行了测试,与经典的 monodepth2 单目方法相比误差评估指标相 对误差、均方根误差和对数均方根误差分别降低 0. 034、0. 129 和 0. 002,自制测试图片证明了网络的泛化性。 结论 使用混合注意力机制结合的 ResNet 网络提取多尺度特征,同时在提取的特征上进行多尺度特征融合提升了深度 估计效果,改善了轮廓细节。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号