首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 187 毫秒
1.
针对传统乳腺超声影像分割算法存在准确率低、精度低且耗时长等问题,提出基于深度学习的三维乳腺超声影像自适应分割算法。首先预处理图像,采用深度多示例学习方法检测病变图像块,删除正常图像块。然后对乳腺超声影像数据集扩增处理,用于神经网络训练。其次构建残差卷积神经网络模型,设计残差学习单元,结合扩增数据集形成特征映射,采用softmax函数训练网络并进行特征块判断,并结合阈值设置实现三维乳腺超声影像自适应分割。实验结果表明,该算法能更细致地完成图像分割,算法平均运行耗时为52.3 s,图像分割精度为95.5%,且F1分数值高,整体性能佳,为卷积神经网络分割应用提供参考。  相似文献   

2.
为了实现网络的低训练成本,在保持高精度的同时大大降低计算复杂性,提出了带有多特征注意力有效聚合模块(MAEA)的语义分割网络:MAEA-DeepLab.该编码器主网络采用了下采样16步幅的低分辨率特征映射,获得高级特征.解码器通过MAEA模块充分利用特征的空间注意力机制,有效聚合多特征,获得具有强大语义表示的高分辨率特征,有效地提高了解码器恢复重要细节信息的能力,实现了高精度分割.MAEA-DeepLab的Multiply-Adds只有DeepLabV3+架构的30.9%,即943.02 B,大大降低计算复杂性.架构不经过COCO数据集预训练,仅使用两张RTX 2080 ti GPU,在PASCAL VOC 2012数据集和CityScapes数据集的测试集上进行了语义分割基准测试,mIOU分数分别达到了87.5%和79.9%.实验结果表明,MAEA-DeepLab以低计算开销达到了很好的语义分割精度.  相似文献   

3.
针对点云分割网络无法在复杂的室内场景中实现高精度分割的问题,本文设计了一种基于深度学习的语义实例联合分割网络,同时完成三维点云数据的语义分割和实例分割任务,主要包含多任务学习主干网络、特征融合模块和语义实例特征联合模块等。特征融合模块通过跳跃连接融合多个网络层,分别融合2个任务各自不同级别的特征,加强网络对数据中包含的信息的整合,并选取大型室内场景数据集S3DIS和部件分割数据集ShapeNet进行对比实验。实验结果显示,网络在数据集S3DIS的语义分割的总体准确率为86.5%,在数据集ShapeNet的语义分割类别交并比为83.1%,在数据集S3DIS的实例分割的平均精度为60.8%。语义实例特征联合模块通过多任务级的特征联合增加语义和实例的判别特征,提高了点云的语义分割和实例分割的准确率。  相似文献   

4.
提出一种基于频域显著性(FDS)方法和极限学习机(ELM)方法进行遥感影像变化检测的方法.首先,对利用变化矢量分析方法(CVA)获取不同时相遥感影像的光谱特征差异图及纹理特征(灰度共生矩阵法)差异图进行融合获得差异影像(DI);然后,利用频域显著性方法获取差异影像的显著性图,采用模糊c均值(FCM)聚类算法对显著性图选取阈值得到的粗变化检测图进行预分类(变化像素、未变化像素、待定像素);最后,从光谱及纹理特征影像上提取变化像素和未变化像素的邻域特征作为可靠样本进行ELM训练,并利用训练好的ELM分类器对粗变化检测图进行变化检测,得到最终的变化检测图.通过对高分辨率遥感影像数据实验结果表明本方法的变化检测精度及性能优于其他对比方法.  相似文献   

5.
针对点云分割中分割目标不明确,边缘不清晰,全局特征与边缘特征未能有效融合等问题,提出 了一种融合边缘检测的 3D 点云语义分割算法。 首先,通过 3D 点云语义分割网络对点云数据进行初步提取 区域内的全局语义特征;然后,采用引入了注意力机制的语义边缘检测网络,能够更好地对点云数据中的物 体进行特征提取增强,抑制非边缘信息的产生,得到了具有丰富的语义信息的边缘特征;最后,通过融合模块 将属于同一物体的语义特征融合起来进行分割细化处理,使得分割目标更精确;此外,使用了双重语义损失 函数,使网络产生具有更好边界的语义分割结果。 通过搭建实验平台和使用 S3DIS 标准数据集进行测试,改 进后的算法在数据集上的平均交互比为 70. 21%,在精度上较 KPConv 语义分割算法有所提高。 实验结果表 明:该算法能够有效改善物体边界分割不清晰、边缘信息模糊等问题,总体分割性能良好。  相似文献   

6.
在高分辨率遥感影像地类识别上,语义分割网络Deeplabv3+表现优异,但是所需参数非常多,训练时间久。遥感影像中的地类与普通RGB图片中的对象相比颗粒度非常大,其具有更显著的特征以及更少的类别,并不需要过深过大的网络。因此,文中提出了一种基于轻量级网络的语义分割模型(Thin-Deeplabv3+),对Deeplabv3+的编码器进行了改进,利用轻量级膨胀网络(Light and Dilated Network, LDNet)提取输入遥感影像的特征,然后利用膨胀系数分别为2、12、24和36的空洞空间金字塔池化(Atrous Spatial Pyramid Pooling, ASPP)模块加强特征提取。在高分遥感影像数据集(Gaofen Image Dataset, GID)以及DeepGlobe土地覆盖分类挑战数据集(DeepGlobe Land Cover Classification Challenge, DLCCC)上的实验结果表明,Thin-Deeplabv3+的识别精度高于Deeplabv3+,并且所需参数仅约为Deeplabv3+的1/10。  相似文献   

7.
图像分割是数字岩心技术的重要组成部分,深度学习为数字岩心图像分割提供了新方法。在优选的深度学习模型的基础上确定网络结构、训练数据量来平衡计算效率,进一步在不同类型的岩心数据集上讨论网络的泛化能力及其影响因素。结果表明:Unet、Segnet和Unet++网络中,Unet++网络可以在保证分割精度的同时具有最好的物性参数预测效果;Unet++网络在训练数据量和预测数据量为1∶1,网络结构设计2次采样的条件下,Unet++网络的分割精度可以达到98%;基于多类岩心训练的Unet++网络分割不同岩心图像的平均分割精度达95%,相较于岩心的类型,岩心图像的质量更能影响Unet++网络的识别效果。  相似文献   

8.
指出了基于深度学习的图像语义分割中,如何充分利用图像上下文信息以达到更好的分割效果,是当前图像语义分割研究的关键问题.为解决这一问题,提出了一种基于多尺度特征提取的图像语义分割方法,通过构建深层卷积神经网络,并利用不同尺度图像作为网络的输入来提取不同尺度图像的特征,最后经过特征融合得到了分割图.在公开数据集Stanford background dataset 8类数据集上进行训练和验证,实验结果达到了84.33%的准确率.实验表明:通过提取和融合多尺度特征,可以达到更好的图像语义分割效果.  相似文献   

9.
为解决脑脊液病理图像中部分细胞膜较为模糊,与图像背景难以区分的问题,采用了基于注意力机制的U-Net深度学习方法对脑脊液病理图像做全自动分割.在深度学习网络中加入注意力机制对细胞进行定位,抑制无关信息,提高语义的特征表达,提高对细胞整体分割的精确性.通过镜像、旋转等操作对数据集进行扩充预处理.采用VGG16预训练模型进行迁移学习,交叉熵与Dice损失相结合作为损失函数,分别在脑脊液临床图像与公开数据集2018 Data Science Bowl上进行验证;并与Otsu, PSPnet, Segnet, DeeplabV3+, U-Net进行对比,结果表明, 本文方法在各项指标上均优于其他分割方法.  相似文献   

10.
为了提高药片外观缺陷检测效率,提出一种使用深度学习进行药片外观缺陷检测的基于像素分类的图像语义分割方法 .首先,利用全卷积神经网络对预处理后的样本数据集进行训练,提取药片外观的缺陷特征,然后,采用像素精度和交并比来评估模型分割的精确度,最后,使用训练得到的模型分割出药片的缺陷位置并加以语义的描述.实验结果 表明,该方法...  相似文献   

11.
当前全景图像生成算法通常依据计算机图形实现,建模时间较长,且生成的全景图像效果不佳,无法满足人们的需求。为此,提出一种新的基于特征提取的虚拟现实中全景图像生成算法,对图像中各像素点的Hessian矩阵行列式进行计算,获取SURF特征点值,通过特征点之间的欧氏距离对图像间的相似性进行衡量,实现特征匹配。通过正投影把所有待合成图像投影至圆柱面上,相邻图像将重合部分融合,获取投影图像后,通过特征匹配实现无缝拼接,将正投影过程生成的立体图像从某一位置剖开,并投影至某一平面上,获取视觉一致的全景图像。实验结果表明,采用所提算法生成的全景图像重叠区域之间几乎没有缝隙,亮度差异不大,可消除“鬼影”现象,且占用内存与消耗时间少。  相似文献   

12.
两时相合成孔径雷达(synthetic aperture radar, SAR)图像变化检测中,差异图的噪声残留将会对变化检测的精度产生较大的影响,传统增量学习模式的检测方法直接对差异图像素样本进行聚类获得伪标签,但没有考虑差异图噪声残留的影响,故检测精度很难提升。考虑对差异图的邻域空间信息采用非负矩阵分解的方式进行特征降维提取,进而根据提取的特征进行聚类可获得高可靠的伪标签,然后基于这些样本伪标签和对应的两时相SAR图像邻域块特征向量构成样本集,利用极限学习机学习其非线性变化关系并最终完成分类,获得变化检测二值图。实验表明,该方法能有效地抑制差异图中的噪声残留影响,提升检测精度,对斑点噪声影响变化检测精度具有较高的鲁棒性。  相似文献   

13.
针对现有目标变化检测方法用于高分辨率可见光图像时,未能有效利用图像的局部特征,目标误检率高。提出了一种区域选取的目标变化检测方法。首先利用整体变分算法获取两幅源图像的结构图,并将两幅源图像与两幅结构图进行分块;然后通过计算得到两幅结构图相同位置块的熵值差和两幅源图像相同位置块的结构相似度,并将两者分别与各自阈值比较以确定出存在变化目标的图像块;最后将存在变化目标的图像块的对数比差异图与均值比差异图进行融合,并对融合后的图像进行形态学处理,得到最终的目标变化检测结果。结果显示,与阴影补偿方法相比,算法的目标目标漏检率降低了36%,伪目标率降低36%,数据表明该方法能够准确的检测出真实变化的目标,较好地排除了伪目标。  相似文献   

14.
受到光照、设备等外界条件的影响,得到的全景球面图像对比度通常较低,当前目标分割方法无法解决外界环境的干扰问题,导致分割结果精度低,分割效果不佳。为此,提出一种新的低对比度全景球面图像目标分割方法,通过PCNN模型对低对比度全景球面图像进行对比度增强处理,依据人眼视觉特征,通过对数变换映射函数把全景球面图像的亮度调整至一个合适的视觉范围内。介绍了均值偏移法的理论基础,通过对特征空间中样本点的聚类,获取模式点。通过均值偏移法将空间上相邻和色彩相同的像素划分至一类,找到不同颜色的聚类点,从而实现低对比度全景球面图像目标分割。实验结果表明,采用所提方法对低对比度全景球面图像进行分割,不仅分割效果好,而且分割精度高。  相似文献   

15.
针对立体像对相对定向时错误匹配点难以剔除的问题,提出了一种分块的立体像对相对定向方法.该方法先对影像上的特征点进行分块,基于各个数据块间的抽样一致性原则选择分布合理的特征点以计算基础矩阵的初始值.然后,以点到极线的距离最小化为判断标准对特征点集合进行筛选,从而获得误差较小的"内点"集.最后,采用选权迭代的方法计算获得基础矩阵的各个要素值,并将其转换为相对定向元素,从而完成立体像对的相对定向.近景影像和航空影像的对比实验表明,该方法具有更高的定向精度和鲁棒性.  相似文献   

16.
根据福州市1988年TM影像和2001年ASTER影像,运用多波段K—L变换法提取城市用地及其变化信息.结果表明:多波段K—L变换法集中了两个时相的影像信息,信息量丰富,变化信息突出,根据变换结果福州市城市用地可分成“高密度旧城市用地”、“中低密度旧城市用地”和“新城市用地”,“新城市用地”包括旧城区内的新建筑物和新兴工业园区,前者建筑密度较高,后者密度较低.  相似文献   

17.
基于数据场和水平集演化的图像分割   总被引:1,自引:1,他引:0  
为了充分挖掘图像内不同区域间的隐含关联性,并解决图像分割中自适应阈值选择问题,提出了一种基于数据场和水平集的图像分割方法。利用数据场能够有效地表示图像像素间的相互作用,根据势值能够得到对应的势值等势线,可以根据该等势线的分布情况,采用梯度下降法来得到图像的二值化分割结果。为了得到更为精确的分割边缘,还引入基于拉普拉斯边缘检测函数的水平集演化方法来对二值化结果进行边缘曲线演化。将二值化分割结果与传统的基于数据场的图像分割算法对比结果显示,所提出的算法在分割准确性上表现良好,并且能够使得图像边缘更加精确。实验结果表明,提出的方法能够较好地分割目标,且对噪声图像具有较强的鲁棒性。  相似文献   

18.
朱磊  滕奇志  龚剑 《科学技术与工程》2020,20(34):14138-14145
岩矿石薄片图像中矿物颗粒的分割提取是分析鉴定工作的前提,为了进一步提高矿物颗粒提取的准确性,提出一种新的矿物颗粒提取分割方法。该方法以一组岩矿石薄片正交偏光序列图作为输入,对每张正交偏光序列图采用改进的模糊 C 均值聚类(FCM)算法进行初始的边缘提取,并叠加多张边缘图像,再对得到的叠加边缘图像进行精细化处理并进行目标颗粒筛选,得到初始的分割提取图像。为了抑制颗粒的过分割现象,利用基于区域邻接图(RAG)的合并算法进行区域合并,首先依据颗粒的颜色纹理等特征进行初始合并操作,再根据矿物颗粒在不同正交偏光角度下的变化规律进行二次合并操作,从而得到最终的分割提取图像。通过对多组图像进行实验表明,该方法可以获得良好的效果。  相似文献   

19.
城市航空遥感影像中的阴影会造成影像信息丢失和信息干扰,现有阴影检测方法存在误检率高、精度低等问题。提出一种二次迭代Cr分量与改进的Otsu自适应阈值相结合的高分辨率城市航空影像阴影检测算法。将影像两次转换到YCb Cr空间,对其Cr通道直方图进行改进的Otsu自适应阈值选择,确定阴影区域。与二次迭代HSV空间检测方法进行对比实验,所提方法解决了前者的H分量损失和原始Otsu阈值算法选取不准确的问题,在准确率和精度方面具有明显优势。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号