首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 31 毫秒
1.
针对现有细粒度图像分类算法普遍存在的模型结构复杂、参数多、分类准确率较低等问题,提出一种注意力特征融合的SqueezeNet细粒度图像分类模型.通过对现有细粒度图像分类算法和轻量级卷积神经网络的分析,首先使用3个典型的预训练轻量级卷积神经网络,对其微调后在公开的细粒度图像数据集上进行验证,经比较后选择了模型性能最佳的SqueezeNet作为图像的特征提取器;然后将两个具有注意力机制的卷积模块嵌入至SqueezeNet网络的每个Fire模块;接着提取出改进后的SqueezeNet的中间层特征进行双线性融合形成新的注意力特征图,与网络的全局特征再融合后分类;最后通过实验对比和可视化分析,网络嵌入Convolution Block Attention Module(CBAM)模块的分类准确率在鸟类、汽车、飞机数据集上依次提高了8.96%、4.89%和5.85%,嵌入Squeeze-and-Excitation(SE)模块的分类准确率依次提高了9.81%、4.52%和2.30%,且新模型在参数量、运行效率等方面比现有算法更具优势.  相似文献   

2.
基于深度学习的图像识别技术在具体应用前必须先经过大量带标签样本的训练,然而在实际场景中目标域样本可能非常稀缺,小样本图像识别技术应运而生.为了提升小样本场景下的图像识别准确率,本文提出一个通用的两阶段训练模型以融合现行主流方法并增强其表现.首先,针对训练时不同害虫种类背景相似度过高的问题提出融合双注意力机制的特征加强模块;其次,针对小样本情况下预测可能产生的过拟合问题提出基于高斯分布的特征生成模块以提高泛化能力;最后,将三种典型小样本识别方法统一成两阶段训练模型以融入提出的方法.将该思路及改进首次应用于传统害虫分类数据集IP102,识别准确率可以在基准方法上取得2.11%到6.87%的提升.为了进一步验证本文方法的有效性,在小样本领域公开数据集Mini Imagenet也进行了相应的实验,提升效果同样显著.  相似文献   

3.
针对花样滑冰运动人体运动轨迹复杂、动作类型多样、普通人肉眼难以区分且常规的行为识别方法识别准确率低的问题,提出了一种基于时空图卷积网络与多通道注意力机制融合方法 (SAT-GCN)的花样滑冰动作识别算法。该算法首先将视频提取成连续的单独帧,使用OpenPose算法提取人体骨骼关键点数据,降低背景噪声干扰;然后使用时空图卷积算法对骨骼关键点数据进行动作分类。算法对时空图卷积算法进行改进,加入了多通道时空注意力机制融合模块,使得模型更加关注重要的关键点、时间帧片段、特征;使用时序卷积网络(TCN)提取人体骨架关键点在时间序列上的特征;使用SoftMax对提取后的特征进行动作分类。在花样滑冰数据集FSD-10和公开的人类行为数据集Kinetics-Skeleton上进行训练和测试,与改进前的时空图卷积网络(ST-GCN)进行对比,本文所提算法的预测准确率在2个数据集上均有所提升,验证了多通道注意力机制融合方法在花样滑冰选手动作检测任务中的有效性。  相似文献   

4.
为了普及国粹京剧,本研究提出一种将随机森林(Random Forest,RF)耦合注意力(Attention)机制和双向长短时记忆(BiLSTM)网络的音乐分类方法RF-BiLSTM-Attention,使用其进行京剧与其他类型音乐的二分类(以下简称“京剧二分类”)。首先,提取音乐所有光谱特征,利用RF选择重要特征;然后,在BiLSTM网络的隐藏层与输出层之间嵌入注意力层,对数据进行分类训练与预测。用来自大众音乐平台和GTZAN数据集的1 500首音乐进行京剧二分类实验,对比RF对循环神经网络(RNN)、长短时记忆(LSTM)网络、BiLSTM等9种模型的影响,结果表明:RF-BiLSTM-Attention模型的分类准确率为89.00%,运行时间为33.22 s,比简单模型中表现最好的RF-BiLSTM模型的分类准确率提高3.33%,运行时间缩短40.54%;比原始BiLSTM-Attention模型的分类准确率提高6.33%,运行时间缩短96.89%。与传统音频分类工作相比,本研究考虑了京剧二分类问题,对京剧起着良好的推广作用。  相似文献   

5.
针对多形性腺瘤诊断完全依赖人工的问题,提出一种计算机辅助诊断方法.先通过采集数据并构建多形性腺瘤数据集,对当前稠密连接网络进行改进并融合通道注意力机制进行疾病组织分类特征提取,得到组织类别和概率,然后使用CART(classification and regression tree)进行推理学习,得到诊断结果.对难判断的类别选择进行人工辅助,进而实现对多形性腺瘤疾病的计算机辅助工作.实验结果表明,该方法在分类识别模块分类提取准确率达97.7%,决策树推理诊断准确率达100%.此外,分类识别模块在血细胞分类领域的准确率达98.6%.该方法具有一定的迁移性和有效性.  相似文献   

6.
融合卷积神经网络(convolutional neural network,CNN)和双向长短期记忆网络(Bi-directional long short-term memory,BiLSTM)的情感分析模型(CNN_BiLSTM)是一个流行的模型,其学习文本的局部特征和全局特征实现情感分类,但是忽略了特征对分类结果的重要程度,且没充分利用词语间的特征,导致分类准确率不高.提出一种集成基于多卷积核的卷积神经网络和注意力双向长短期记忆网络特征的文本情感分类方法(MCNN_Att-BiLSTM),其集成局部和全局的重要特征作为文本语义特征,该特征进而用于训练文本情感分类器XGBoost(eXtreme gradient Boosting).该方法基于注意力机制的BiLSTM提取对分类影响大的全局关键特征,基于多卷积核的CNN获得更全面的词语间特征,为集成分类器准备了有效分类的特征.实验结果表明,该模型具有更好的情感分类准确率,与CNN_BiLSTM模型相比,在IMDB数据集上准确率提升了1.75%,在txt-sentoken数据集上准确率提升了1.67%,在谭松波-酒店评论数据集上准确率提升了3.81%.  相似文献   

7.
针对细粒度图像分类中数据分布具有小型、非均匀和不易察觉类间差异的特征,提出一种基于注意力机制的细粒度图像分类模型.首先通过引入双路通道注意力与残差网络融合对图像进行初步特征提取,然后应用多头自注意力机制,达到提取深度特征数据之间细粒度关系的目的,再结合交叉熵损失和中心损失设计损失函数度量模型的训练.实验结果表明,该模型在两个标准数据集102 Category Flower和CUB200-2011上的测试准确率分别达94.42%和89.43%,与其他主流分类模型相比分类效果更好.  相似文献   

8.
通过对矿物扫描电镜图像进行分类与鉴定,能够获取矿物的微观信息,确定矿物的组成与类别,对于油气田生、储、盖类型的研究具有重要的意义.由于在一幅图像之中有时不止有一种矿物,且不同矿物之间具有相关性或共生性的特性,而普通的神经网络只提取图像特征或只注意图像局部的特征关系,忽略了矿物之间的相关性.因此如何利用标签之间的关系进行更优秀的多标签图像分类成为扫描电镜图像分类的重要任务.鉴于上述情况,通过构建基于Resnet50的图像特征学习模块与基于图卷积神经网络的分类器模块构成的引入图卷积的卷积神经网络模型可以很好地完成上述任务.使用卷积神经网络模块提取图像特征,并利用GCN模块学习矿物标签之间的相关性,达到提高分类准确率的目的 .此模型相比普通的CNN模型准确率提高了5%,相比引入注意力机制的CNN模型,此模型的准确率仍有3%的优势.实验表明,CNN与GCN相结合的分类模型在扫描电镜数据集分类任务中优于其他的分类模型.  相似文献   

9.
针对基于视频的多模态情感分析中,通常在同一语义层次采用同一种注意力机制进行特征捕捉,而未能考虑模态间交互融合对情感分类的差异性,从而导致模态间融合特征提取不充分的问题,提出一种基于注意力机制的分层次交互融合多模态情感分析模型(hierarchical interactive fusion network based on attention mechanism,HFN-AM),采用双向门控循环单元捕获各模态内部的时间序列信息,使用基于门控的注意力机制和改进的自注意机制交互融合策略分别提取属于句子级和篇章级层次的不同特征,并进一步通过自适应权重分配模块判定各模态的情感贡献度,通过全连接层和Softmax层获得最终分类结果。在公开的CMU-MOSI和CMU-MOSEI数据集上的实验结果表明,所给出的分析模型在2个数据集上有效改善了情感分类的准确率和F1值。  相似文献   

10.
针对MobileNetV2网络在图像分类任务中特征表达不足的问题,提出一种结合注意力机制对MobileNet网络的改进策略。利用一种新颖的高效且无参的注意力模块,同时结合I-block模块来替换MobileNet网络中的倒残差模块,采用RReLU激活函数替代原ReLU激活函数保留更多特征,结合inception结构进行多尺度特征提取与融合,使其可以提供更强的多尺度特征表达并服务于图像分类任务,使用数据扩增技术,生成更多样本。与6种方法进行对比,实验结果表明,采用3D注意力机制的网络在数据集CIFAR-10、CIFAR-100上以最少的网络参数分别取得94.09%和75.35%的最高精度,表明该改进方法可以有效地进行快速图像分类。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号