首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
通过对矿物扫描电镜图像进行分类与鉴定,能够获取矿物的微观信息,确定矿物的组成与类别,对于油气田生、储、盖类型的研究具有重要的意义.由于在一幅图像之中有时不止有一种矿物,且不同矿物之间具有相关性或共生性的特性,而普通的神经网络只提取图像特征或只注意图像局部的特征关系,忽略了矿物之间的相关性.因此如何利用标签之间的关系进行更优秀的多标签图像分类成为扫描电镜图像分类的重要任务.鉴于上述情况,通过构建基于Resnet50的图像特征学习模块与基于图卷积神经网络的分类器模块构成的引入图卷积的卷积神经网络模型可以很好地完成上述任务.使用卷积神经网络模块提取图像特征,并利用GCN模块学习矿物标签之间的相关性,达到提高分类准确率的目的 .此模型相比普通的CNN模型准确率提高了5%,相比引入注意力机制的CNN模型,此模型的准确率仍有3%的优势.实验表明,CNN与GCN相结合的分类模型在扫描电镜数据集分类任务中优于其他的分类模型.  相似文献   

2.
针对现有方法难以解决复杂场景图像分类的问题,本文提出一种基于局部语义上下文的场景分类方法。该方法将整个图像分割为一系列超像素,从超像素提取局部特征表示图像的局部观察;在观察图像和场景类别标签之间引入表示超像素区域语义的随机变量,通过不同随机变量之间的依赖关系引入局部语义上下文信息,较好地描述了图像观察、图像内容与场景类别标签之间的语义关联度,最后定义判别图像场景类别的目标函数,采用优化方法推断图像的场景类别。在标准图像库进行的实验证明了该方法的有效性。  相似文献   

3.
针对图像块间像素之间的关系,设计了一种图像理解算法.通过分析图像块间像素的特征,将传统的基于最低像素点信息隐写的算法进行改进,并分别分析了相邻两个像素点之间的图像关系和图像块之间的像素点的关系,设计了一种大容量的图像隐写算法.详细描述了算法的设计过程和实现方法,并给出了像素中主要参数的计算方法.通过实验和分析表明,该文设计的隐写算法,嵌入隐写信息后视角效果变化不明显.与经典的LSB算法和基于相邻两个像素差值的隐写算法对比,其PSNR均值都要更高,表明该文的隐写算法性能更好.  相似文献   

4.
移动机器人视觉定位方法,主要是将目标物体的图像像素与移动机器人和目标物体之间的距离联系起来。应用视觉传感器搜寻目标物体,并借助于图像处理技术提取目标物体的特征对目标进行定位。通过计算目标物体图像的像素数,比例关系来确定目标物体与机器人之间的距离。这种方法成功地运用于RIRAII移动机器人上。  相似文献   

5.
由于热图像存在无颜色信息,边缘模糊,细节信息较弱等问题,较难获得高质量的图像分割效果.为解决这个问题,在编码-解码(encode-decode)架构的基础上,本文增加了多级像素空间注意模块(multi-level pixel spatial attention module, MPAM)、边缘提取模块(edge extraction module, EEM)和小目标提取模块(tiny target extraction module, TTM).其中,MPAM能使网络充分保留细节的同时捕捉到语义信息,EEM和TTM分别提取具有语义信息的边缘和小目标等细节特征.为提高各类别边缘相交区域像素点和小目标物体的预测精度,设计了专门的损失函数对已获得的边缘和小目标特征进行监督训练,提高各类别边缘相交区域像素点和小目标物体的预测精度.将该方法分别应用于课题组构建的热图像数据集SCUT_SEG、公开的热图像数据集SODA和合成热红外数据集Cityscpae,实验结果表明:本文方法比FCN、PSPNet、Deeplabv3+、MCNet、EC-CNN等5种网络分割算法效果略好,性能提升约2.2个百分点...  相似文献   

6.
结合SVM和分形维数的多特征红外人造目标提取   总被引:1,自引:0,他引:1  
研究了红外图像中人造目标的提取.首先,通过计算红外图像目标的分形维数确定红外目标和背景的大致区域;然后,分别提取目标图像和背景图像的灰度级特征(邻域中心像素亮度、邻域中值亮度和邻域平均亮度),再利用支持向量机(SVM)进行训练,并尝试用不同的核函数及其参数建立最适当的区分目标和背景像素点的模型,进而把红外图像像素点分成目标和背景2类;最后,利用构建的模型实现红外图像中人造目标的提取.实验结果表明,用该方法建立的分类模型可以有效地提取红外图像中的人造目标.  相似文献   

7.
针对高光谱图像分类中光谱特征的高度非线性问题,提出一种基于多层感知器卷积层和批标准化层的改进卷积神经网络模型,提高模型在光谱域处理的非线性特征提取能力.该算法通过构建七层网络结构,实现多层局部感知结构,逐个像素对光谱信息开展分析,区分不同目标物的光谱信息,将全光谱段集合作为输入,舍去空间信息,利用动量梯度下降训练算法对多层局部感知卷积神经网络训练,实现对不同目标物体光谱特征的提取与分类.实验中,采用两组高光谱遥感影像进行对比分析,以Pavia University数据集为例,在3 600个训练样本情况下,测试集为1 800个样本,本文方法正确率为90.23%,LeNet-5正确率为87.94%,Linear-SVM正确率为90.00%;在21 000个训练样本情况下,测试集为全部样本,本文方法正确率为97.23%,LeNet-5正确率为96.64%,Linear-SVM正确率为92.40%.实验结果表明,在训练集较小的情况下,本文方法优于传统神经网络,能有效提取数据特征,并且在精度上和计算成本上略优于在小样本分类中具有高效和鲁棒性良好的SVM算法.在大规模训练集时,本文方法表现出良好的学习能力,在分类精度上优于LeNet-5.本文提出的多层局部感知网络结构增强了对非线性特征的学习能力,无论训练集规模大小,都比传统的SVM和一般的深度学习网络更能有效的利用高光谱图像中的逐像素点的光谱域信息,能有效提高分类精度.  相似文献   

8.
针对全卷积神经网络在图像分割上易出现一些孤立的错分像素点或像素块现象,提出一种新的全卷积神经网络结构模型,并定义特征概率图约束损失函数作为本研究模型的优化目标. 该损失函数衡量了图像中的像素点属于前景和背景概率的差距. 同时,该模型使用新定义的损失函数与常用的交叉熵损失函数的加权组合联合训练网络模型. 在肺数据集和手势数据集的实验结果表明,该网络模型可以减少部分错分的孤立像素点和孤立像素块的出现.  相似文献   

9.
图像情感分布学习可以对多种情绪同时进行建模,但现有的模型缺乏有效的方法直接考虑情绪之间的相关性.针对这一问题,该文提出一种基于情感轮和多任务卷积神经网络(EW-MTCNN)的图像情感分布学习模型,通过先验知识模块将心理学情感知识直接引入到深度神经网络中.基于Mikel's情感轮定义成对情绪之间的相关性,EW-MTCNN模型采用多任务卷积神经网络学习情绪之间的相关性信息,同时优化情感分布预测和情绪分类任务.EW-MTCNN模型由3个模块组成,3个模块分别是图像特征提取层、情感轮先验知识层和多任务损失层.在情感分布数据集(Emotion6)和单标签数据集(Artphoto)上进行对比实验的结果表明:EW-MTCNN模型在情感分布预测与情绪分类任务上比其他情感分布学习方法具有更优的性能.  相似文献   

10.
研究彩色柱状体类物体在最大色度-强度空间的图像像素分布特征,提出了通过双色反射模型提取图像反射成分的方法.采用理论分析和实践验证相结合的方法,以Matlab为平台设计程序,得出柱状体类物体图像在最大色度-强度空间像素的分布,阐明柱状体类物体图像像素的最大色度和强度之间的关系,提出了有效分离图像中高光像素和漫射像素的方法.研究表明,彩色柱状体类物体图像的高光像素和漫射像素的分布规律不同,可以通过拟合直线将二者有效分离,还可获得图像的本体颜色及光源颜色信息,在计算机视觉领域具有很好的理论及应用价值.  相似文献   

11.
基于K-均值算法的数字图像水印技术   总被引:3,自引:0,他引:3       下载免费PDF全文
首先利用K-均值聚类算法对图像进行分类,在考虑图像局部特性的情况下,利用像素点与邻域像素的关系嵌入水印,并且在图像的多个区域同时嵌入相同的水印,提取时无需原图.实验结果表明,该方法是一种有较好鲁棒性的空域数字水印方案.  相似文献   

12.
针对现有人工垃圾分类工作环境恶劣、自动化程度差等问题,提出基于深度学习与图像处理的废弃物分类与定位方法,为智能分拣提供理论依据.建立基于Inception模块与残差单元,搭建改进的卷积神经网络废弃物分类模型,预测目标物体种类.针对复杂环境采集到的图像,利用图像处理算法对图像降噪、阈值分割、边缘检测,有效提取目标轮廓信息,并结合质心定位算法实现废弃物准确定位.实验结果表明:该方法中废弃物分类模型预测准确率可达88.8%,基于轮廓信息的质心定位算法可以准确定位目标,具备较强的废弃物分类与定位能力.  相似文献   

13.
随着多媒体技术的迅速发展,如何对运动物体进行实时准确的检测,成为一个重要的研究课题.本文在分析了背景差分、帧间差法和光流法3类运动检测方法的基础上,针对光流法存在运算复杂、帧间差法实时性差、背景差分提取速度慢等缺点,重点分析了背景差分算法,提出了基于改进的块直方图方法提取背景.利用改进后的方法进行直方图分析时,不是针对固定大小的模块,也不是像素点,而是针对同类目标的类模块.经过仿真分析得出,该方法充分利用同类物体像素之间的相关性,可以减少图像处理计算量,缩短分析时间,同时能得到较好的背景图像.  相似文献   

14.
针对ML-GCN中标签共现嵌入维度过高影响模型分类性能和ML-GCN中没有充分发掘标签之间不对称关系的问题,提出一种基于图注意力网络的多标签图像分类模型ML-GAT;ML-GAT模型首先对高维标签语义嵌入矩阵进行降维;然后通过降维后的低维标签语义嵌入表示和标签类别共现图得到标签共现嵌入;与此同时ML-GAT将多标签原始...  相似文献   

15.
多标签分类问题已广泛应用于文本分类、图像分类、生物基因功能分类、视频语义注释等.相比较于单标签分类,多标签分类更符合真实世界的客观规律.然而,已有的卷积神经网络多标签分类算法没有探究标签之间相关性,为此提出了一种基于标签相关性卷积神经网络多标签分类,即计算标签之间共现相似度方法,同时为了解决卷积神经网络预测精度高,训练时间长的缺点,引入了迁移学习的方法加快了模型的训练时间.实验表明,提出的算法优于传统的多标签分类算法.  相似文献   

16.
目前边缘检测算法只能检测水平边缘、垂直边缘,且检测精度低、处理速度慢、抗噪性能差;针对上述存在的缺陷,提出一种气门几何尺寸的多种边缘高精度尺寸检测算法。首先采用中值滤波和高斯滤波对气门采集图像进行预处理,然后针对不同的边缘使用不同检测算法实现图像边缘的像素级定位。在像素级边缘定位的基础上采用几何质心法亚像素边缘定位实现图像边缘的亚像素级精确定位。最后采用畸变校正技术对图像中边缘像素点的坐标进行校正,得到没有畸变情况下边缘像素点的理想坐标,根据像素当量计算得到气门的各个尺寸。通过在光学图像检测系统中的实际应用,证明提出的算法精确且稳定,满足高精度视觉检测的要求。  相似文献   

17.
提出了一种新的基于加权投票准则集成的极化合成孔径雷达系统(PolSAR)图像分类方法.该方法采用加权投票集成的方法根据不同个体的学习结果进行合,并从而提高极化SAR图像的分类精度.首先,输入极化图像数据并获得所需要的特征作为特征集.再从图像的每一类中选取多组像素点组成多个训练样本子集;然后,基于不同的样本子集训练学习得到不同的分类器,并对像素点进行分类得到预测标记,再由这些预测标记计算得出相应的加权系数;最后,通过加权系数将预测标记合并起来得到最终的极化SAR分类结果.实验结果证明,所提出的算法在AIRSAR和Radarsat-2数据上取得了很好的分类结果.  相似文献   

18.
针对包含目标、尺度和平移变化较强的空间信息难以获取大量训练样本的问题,提出一种基于深度卷积神经网络(deep convolutional neural network,DCCN)的弱监督学习方法,从3个层面对当前卷积神经网络进行扩展。为了提取分辨率更高的局部特征,同时考虑到全卷积网络(full convolution network,FCN)在全监督式学习下的高效性能,使用FCN作为后端模块;为了获取更多的通用特征,增加一个多映射弱监督学习的传输层,对与补充性类模态相关的多个局部特征进行显式学习;为了优化训练过程,改进了池化层,使用全局图像标签进行训练,将空间得分聚合为全局预测。使用图像分类、弱监督逐点目标定位和图像分割3种常用的机器视觉任务进行评估。多个公开数据库的实验结果表明,所提方法能够有效地学习强局部特征,具有良好的分类和定位效果。  相似文献   

19.
针对传统多标签文本分类模型未考虑标签之间以及标签与文本各个部分之间的相关性、低频标签预测效果不佳的问题,使用图嵌入和区域注意力技术来挖掘标签之间以及标签和文本之间的关系,提出了编码器-图嵌入和区域注意力机制-解码器模型来处理多标签分类任务.采用Bi-LSTM作为编码器,使用图嵌入技术生成标签嵌入矩阵;利用区域注意力机制结合单词级别与区域级别的信息,使得模型在预测每个标签时考虑文本不同部分的信息,挖掘了文本与标签之间的潜在关联;使用循环神经网络和多层感知机作为解码器结合随机策略梯度算法,减少训练损失,改善多标签分类效果.在AAPD和RCV1-V2多标签文本分类数据集上进行试验,根据数据集特征设置相关参数,以micro-F1和Hamming Loss作为评价指标,对比所提出模型与LP、卷积神经网络等9个经典模型.结果表明,所提出模型能够根据高频标签预测出低频标签,在2个数据集上的micro-F1和Hamming Loss均优于经典模型.  相似文献   

20.
为实现海上航拍图像目标定位,必须实时采集有关定位数据.根据海上航拍图像目标定位算法所需数据,全面分析了定位算法相关数据的分类,提出了相关数据的采集方法,并从实际应用的角度阐述了采集设备的选型原则.为海上航拍图像目标定位算法应用、实现海上航拍图像目标定位提出了数据的采集方法,并提出了采集设备的选型方案.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号