首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 125 毫秒
1.
情感分布学习(emotion distribution learning, EDL)采用情感分布记录给定样本在各个情绪上的表达程度,在处理具有模糊性的多标签情绪分析任务时具有明显优势。情感分布标签增强技术将已标注的情绪单标签增强为情感分布,可以解决EDL缺乏已标注情感分布的实验数据集的问题。然而,已有的情感分布标签增强方法采用离散空间情绪模型表示情绪,存在情绪间的相关信息丢失和情绪表达不连续等问题。针对上述问题,该文引入基于连续维度的效价-唤醒-支配(valence-arousal-dominance, VAD)心理学情绪模型,提出融合VAD情绪知识的文本情感分布标签增强方法(VAD emotion knowledge-based text emotion distribution label enhancement, VADLE)。VADLE方法基于先验的VAD情绪模型中的情绪距离,先为英文句子的真实情绪标签和句中情感词的情绪标签分别生成先验情感分布,再通过分布叠加将2种先验情感分布统一。通过英文单标签文本情感数据集的对比实验表明:VADLE方法在情绪预测任务方面的性能优于已有的情感...  相似文献   

2.
图像情感分布学习可以对多种情绪同时进行建模,但现有的模型缺乏有效的方法直接考虑情绪之间的相关性.针对这一问题,该文提出一种基于情感轮和多任务卷积神经网络(EW-MTCNN)的图像情感分布学习模型,通过先验知识模块将心理学情感知识直接引入到深度神经网络中.基于Mikel's情感轮定义成对情绪之间的相关性,EW-MTCNN模型采用多任务卷积神经网络学习情绪之间的相关性信息,同时优化情感分布预测和情绪分类任务.EW-MTCNN模型由3个模块组成,3个模块分别是图像特征提取层、情感轮先验知识层和多任务损失层.在情感分布数据集(Emotion6)和单标签数据集(Artphoto)上进行对比实验的结果表明:EW-MTCNN模型在情感分布预测与情绪分类任务上比其他情感分布学习方法具有更优的性能.  相似文献   

3.
提出了一种基于LDA-Col模型的无监督主题情感混合(UTSU)模型。采用词序流对文本进行表示,对每个句子采样情感标签,对每个词采样主题标签,得到文本的主题情感分布。这种采样方式既符合语言的情感表达,又不会缩小词之间的主题联系,克服了ASUM模型和JST模型在同一层盘子中采样主题标签和情感标签的缺陷。实验表明,UTSU模型的情感分类性能比有监督的情感分类方法稍差,但在无监督的情感分类方法中效果最好,情感分类综合指标比ASUM模型提高了3%,比JST模型提高了17%。  相似文献   

4.
随着在线视频平台的快速发展,弹幕逐渐成为人们表达观点的一个重要途径,尤其受到年轻人的欢迎.与常规的文本不同,弹幕文本普遍较短,表达随意,网络词汇较多,一些常规的停用词被用于表达情感.提出了一种基于弹幕数据的舆情分析模型,针对弹幕数据生成和存储特点,提出了热点检测循环自适应弹幕数据获取算法;扩充了情感词典来区分弹幕中情感倾向数据和中性数据,以解决弹幕中出现的网络词汇较多的问题;基于卷积神经网络(Convolutional Neural Network, CNN)建立了情感褒贬分类模型,用来区分情感倾向弹幕的正负情感倾向,在此基础上得到了舆情分析的结果.实验表明,本文的舆情分析模型能有效地表达新闻类弹幕数据的舆情分析结果.  相似文献   

5.
不同于纯文本的情绪分析, 本文面向多模态数据(文本和语音)进行情绪识别研究。为了同时考虑多模态数据特征, 提出一种新颖的联合学习框架, 将多模态情绪分类作为主任务, 多模态情感分类作为辅助任务, 通过情感信息来辅助提升情绪识别任务的性能。首先, 通过私有网络层对主任务中的文本和语音模态信息分别进行编码, 以学习单个模态内部的情绪独立特征表示。接着, 通过辅助任务中的共享网络层来获取主任务的辅助情绪表示以及辅助任务的单模态完整情感表示。在得到主任务的文本和语音辅助情绪表示之后, 分别与主任务中的单模态独立特征表示相结合, 得到主任务中单模态情绪信息的完整表示。最后, 通过自注意力机制捕捉每个任务上的多模态交互特征, 得到最终的多模态情绪表示和情感表示。实验结果表明, 本文方法在多模态情感分析数据集上可以通过情感辅助信息大幅度地提升情绪分类任务的性能, 同时情感分类任务的性能也得到一定程度的提升。  相似文献   

6.
隐式情感分析是情感计算的重要组成部分,尤其是基于深度学习的情感分析近年来成为了研究热点.本文利用卷积神经网络对文本进行特征提取,结合长短期记忆网络(LSTM)结构提取上下文信息,并且在网络中加入注意力机制,构建一种新型混合神经网络模型,实现对文本隐式情感的分析.混合神经网络模型分别从单词级和句子级的层次结构中提取更有意义的句子语义和结构等隐藏特征,通过注意力机制关注情绪贡献率较大的特征.该模型在公开的隐式情感数据集上分类准确率达到了77%.隐式情感分析的研究可以更全面地提高文本情感分析效果,进一步推动文本情感分析在知识嵌入、文本表示学习、用户建模和自然语言等领域的应用.  相似文献   

7.
文本情绪多标签分类是一种细粒度的文本情感分析,通过挖掘文本中蕴含的多种情绪信息,为文本分配多种所属的情绪标签。文章提出一种基于标签特征的卷积神经网络(CNN)情绪多标签分类方法,首先利用word2vec模型对文本进行词向量表示,然后利用标签特征来强化文本情绪和标签之间的联系,将其融合于CNN模型中,用于对文本情绪进行深层次的表示和多标签分类。为了验证方法的有效性,选取了CLR和LPLO两个多标签分类方法作为基准方法,在NLPCC2014的中文微博情绪分析数据集进行比较实验。结果表明,使用标签特征的CNN模型,可以提升微博情绪的分类性能。  相似文献   

8.
基于加权K近邻算法的抽象画图像情感分布预测   总被引:1,自引:0,他引:1  
现有的大部分图像情感分类计算主要致力于预测图像情感的类别,没有考虑观察者对于图像情感不同的主观感受,因此仅对图像进行情感分类并不能满足现实需要.本文提出采用加权K 近邻算法对数据集中每幅抽象画图像进行离散情感的分布预测,首先提取图像的情感特征,不同的K 值,按照距离加权为每幅图像预测对应的情感分布情况,然后与数据集已知的情感分布进行比较.以Abstract 图像库作为数据集进行实验,并验证了算法的有效性.  相似文献   

9.
随着监管不断加强,人们表达方式逐渐由直白向隐晦演进,情感分析任务变得更为困难。针对用于情感分析的预训练语言模型和微调阶段模型在处理包含隐式情感文本时遇到的巨大困难,本文提出了一种基于提示学习模型(一种弥合了预训练模型和微调阶段模型的模型)和类别差异化损失的方法ImplicitPrompt,将隐式的情感显式化,区分不同情感标签的距离,提升隐式情感分类的准确率。在英文方面级情感分类标准数据集上进行实验的结果表明,本文模型在标准监督设置下和低资源设置下均能在文本隐式情感分类中取得最佳效果。  相似文献   

10.
情感原因抽取(ECE)是情感分析领域的一项重要子任务,旨在识别给定文档中某种情绪表达所对应的原因.现有的一些工作将该任务定义为子句分类任务,关注了文档和子句之间的联系,而忽略情感描述子句与情感原因子句的直接语义联系,同时存在标签不平衡问题,使得情感原因子句位置难以定位.因此,提出了一个基于子句的自注意力机制同时结合了子句相对位置关系的神经网络模型去寻找情感原因子句.为了更加突显句子的局部特征,利用卷积神经网络抽取每个子句的上下文特征.模型首先使用双向长短期记忆网络编码子句信息,融合子句位置特征后,利用自注意力机制计算情感原因子句和情感描述子句之间的语义信息,并结合子句局部上下文特征,抽取情感原因子句.在基于新浪城市新闻的情感原因抽取中文数据集上,查全率R达到83.83%,优于目前的基线方法.  相似文献   

11.
服装款式复杂多变,而目前服装情感描述大多是定性描述,对各类服装的情感描述词也未进行系统分析.建立服装情感空间是实现计算机对服装图像情感识别及量化评价的重要前提.通过对男西装情感描述词的筛选、投票、初步确定、相关性分析、因子分析等过程进行了研究,最后得出一个2维的男西装情感因子空间,这样每幅图像对应着该因子空间上的2维坐标值,使得在因子空间上定义男西装图像间的情感相似度和对男西装图像按情感相似性进行评估和索引成为可能,为下一步实现男西装图像情感的机器评估和图像情感语义识别、检索奠定了基础.该方法同样可以扩展到其他类别的服装.  相似文献   

12.
情绪识别指在使计算机拥有能够感知和分析人类情绪和意图的能力,从而在娱乐、教育、医疗和公共安全等领域发挥作用.与直观的面部表情相比,身体姿态在情绪识别方面的作用总是被低估.针对公共空间个体人脸分辨率较低、表情识别精度不高的问题,提出了融合面部表情和身体姿态的情绪识别方法.首先,对视频数据进行预处理获得表情通道和姿态通道的输入序列;然后,使用深度学习的方法分别提取表情和姿态的情绪特征;最后,在决策层进行融合和分类.构建了基于视频的公共空间个体情绪数据集(SCU-FABE),在此基础上,结合姿态情绪识别数据增强,实现了公共空间个体情绪的有效识别.实验结果表明,表情和姿态情绪识别取得了94.698%和88.024%的平均识别率;融合情绪识别平均识别率为95.766%,有效融合了面部表情和身体姿态表达的情绪信息,在真实场景视频数据中具有良好的泛化能力和适用性.  相似文献   

13.
结合自评问卷和行为任务两种测量方式,比较老年人与青年人的共情差异。研究1采用人际反应指数量表(IRI),以280名老年人和304名青年人为研究对象,探究两个年龄组被试基于自评问卷的共情差异。研究2使用多维共情测试(MET),以71名老年人和74名青年人为研究对象,进一步比较两个年龄组被试基于行为任务的共情差异。研究结果显示:1)与青年人相比,无论是基于自评问卷还是行为任务,老年人的认知共情均显著下降;2)与青年人相比,老年人对消极情绪的情绪共情显著下降,但对积极情绪的情绪共情无显著变化;3)老年人对积极情绪的情绪共情显著高于消极情绪,青年人对这两种效价情绪的认知共情和情绪共情均无显著差异。结果表明,从青年期到老年期,对积极情绪和消极情绪的共情能力存在分离性的发展特征。  相似文献   

14.
In order to find out the special cognitive emotional information to reach good accuracy in the recognition of anger emotions, the brain emotional oscillatory activity induced by relaxation and anger affective pictures is investigated in the amplitude measurement. A visual evoked affective experiment is designed and carried out to collect the electroencephalogram(EEG)data labeled with anger and relaxation emotion states. Twenty-one healthy college students(female 9, male 12) are employed to stimulate emotion by different affective pictures. Event-Related Spectral Perturbation(ERSP) is used to discover the pronounced features of anger tendency prediction in the time-frequency domain. ERSP maps exhibit that there is a difference between the female and male group, which is statistically significant within the 150-250 ms and 350-450 ms time range of alpha band. The male group is more susceptible to anger than female group, while the female group is faster in emotional regulation than the male group.These feature values could be used to identify the tendency of angry emotion, which can provide certain reference basis for further research on the predict the tendency of aggressive behavior.  相似文献   

15.
文本情感分析是对带有情感色彩的主观性文本进行分析、处理、归纳和推理的过程。文本中的表情符号也能表达一定的情感。针对情感分析研究时先去除包含表情符号在内的停用词这一方法,本文在判断情感倾向性时考虑情感词和表情符号的共同作用,提出了一个包含表情符号的文本情感分析模型。通过设置一定阈值,可以对社交网络中过激情感进行实时监测。  相似文献   

16.
英、汉情感隐喻认知比较   总被引:7,自引:0,他引:7  
隐喻作为一种普遍的语言现象,在各种语言中均有所体现,而情感这一抽象概念常常是用隐喻来表达。英、汉两种语言都有大量表达情感的隐喻,这些情感隐喻既存在着一定的共性,也存在着个性,共性是源于人类相同的生理特征和情感体验,而个性,而是源于不同的地理位置,气候变化,风俗习惯,文化差异等。  相似文献   

17.
提出了一种面向情绪分类的融合词内部信息和情绪标签的词向量学习方法。在CBOW模型的基础上,引入词内部成分和情绪标签信息,以适应微博情绪表达的不规范,同时丰富词向量的情绪语义。对于输入文本,按照词的TF-IDF权重对词向量进行加权求和,以作为文本向量表示。以上述词向量或文本向量作为情绪分类器的输入,采用机器学习的分类方法(LR、SVM、CNN),验证本文情绪词向量在情绪分类任务上的实验效果。实验表明,情绪词向量与原始CBOW词向量相比,在准确率、召回率、F值等各项指标上都有更好的表现。  相似文献   

18.
目前大多数人脸图像情感分析方法只单方面关注图像整体或局部来构建视觉情感特征表示,忽略了二者在情感表达上的协同作用。针对此问题,提出了一种多层交叉注意力融合网络情感分析方法。该方法首先利用特征相关性分析实现最大化类的可分性;其次通过多层交叉注意力网络中的多个不重叠的注意力区域来提取整体和局部的信息;然后将整体与局部提取的注意力图进行融合,来共同训练图像情感分类器并进行情感分析。实验结果表明,提出的方法在真实数据集RAFDB上的情感分类准确率达到了88.53%,优于现有其他方法,验证了该方法的有效性与优越性。  相似文献   

19.
基于韵律语段的语音情感识别方法研究   总被引:2,自引:0,他引:2  
语音情感识别领域提取情感特征时,普遍采用"不同情感类别,相同时长基准"的做法,忽略了人耳敏感的韵律段长会依情感不同而有所差异的现象。本文首先通过情感识别实验确定各类情感的最佳识别段长,作为人耳敏感韵律段长。并构造了基于韵律段特征的多重Elman网络模型,以期对不同情感基于特定敏感韵律段长进行识别和对多分类器识别结果进行有效融合,实现了对人耳情感辨识规律的模拟。结果表明,使用敏感韵律段特征的系统识别率达到67.9%,与使用定长语段特征相比有了很大的提高。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号