首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   3937篇
  免费   27篇
  国内免费   72篇
系统科学   32篇
丛书文集   93篇
教育与普及   98篇
理论与方法论   46篇
现状及发展   1篇
综合类   3766篇
  2024年   21篇
  2023年   63篇
  2022年   64篇
  2021年   80篇
  2020年   49篇
  2019年   59篇
  2018年   33篇
  2017年   31篇
  2016年   46篇
  2015年   87篇
  2014年   181篇
  2013年   176篇
  2012年   204篇
  2011年   261篇
  2010年   403篇
  2009年   442篇
  2008年   379篇
  2007年   370篇
  2006年   179篇
  2005年   114篇
  2004年   132篇
  2003年   122篇
  2002年   120篇
  2001年   105篇
  2000年   80篇
  1999年   70篇
  1998年   49篇
  1997年   29篇
  1996年   20篇
  1995年   18篇
  1994年   16篇
  1993年   13篇
  1992年   8篇
  1991年   5篇
  1990年   5篇
  1989年   2篇
排序方式: 共有4036条查询结果,搜索用时 31 毫秒
651.
针对基于注意力机制的模型在方面级情感分类任务中忽略了单词词性信息的问题,提出一种融入词性自注意力机制的方面级情感分类方法.该方法首先基于自然语言处理词性标注工具获得词性标注序列,并随机初始化一个词性嵌入矩阵得到词性嵌入向量;然后用自注意力机制学习单词之间的句法依赖关系;最后计算出每个单词的情感分数,利用词情感的结合表示特定方面的情感极性.实验结果表明,在5个公共数据集上,该方法相比效果最好的基线模型,在准确率和宏观F1分数上分别提升2%和4.83%.表明融入词性信息的注意力机制模型在方面级情感分类任务中性能更好.  相似文献   
652.
为系统探究多模态情感分析模型在对抗攻击下的鲁棒性,采用3种经典对抗攻击方法(快速梯度符号方法、投影梯度下降和动量迭代快速梯度符号方法)、2种模态数据输入(视觉和语音)和4种不同的数据特征融合方法(特征相加、特征拼接、多模态低秩双线性和多模态Tucker融合),对比各种组合下模型的性能表现,研究影响多模态情感分析模型鲁棒性的内在因素.提出一种基于互信息最大化的多模态防御方法,通过减少输入模态特征中的冗余信息提升模型鲁棒性.研究结果表明:在非线性特征融合及双模态数据输入组合下,模型抵御对抗攻击效果最佳;在应用互信息最大化防御方法后,模型性能及抵御攻击能力均可得到有效提升.  相似文献   
653.
为了分析突发事件期间网络舆论的情感倾向,以更有效地调节人们的情绪,维护社会稳定。本文提出了一种融合BERT模型和多通道卷积神经网络的深度学习方法用于细粒度情感分类,以获取更加丰富的文本语义特征信息。通过BERT 对输入的文本进行编码,以增强文本的语义特征表示,再通过具有多个不同大小的卷积核的并行卷积层来学习文本特征,捕获文本的深层次特征,提升模型在文本分类的性能。对比实验表明,该模型在准确性、召回率和F1值方面均优于传统的情感分类模型,并能显著改善细粒度情感分类的性能。除此之外,本文还探究了表情符号对细粒度情感分类模型的影响,实验结果表明表情符号转换成文字后可以增强文本的情感特征提取能力,提升模型分类性能。  相似文献   
654.
目前大多数人脸图像情感分析方法只单方面关注图像整体或局部来构建视觉情感特征表示,忽略了二者在情感表达上的协同作用。针对此问题,提出了一种多层交叉注意力融合网络情感分析方法。该方法首先利用特征相关性分析实现最大化类的可分性;其次通过多层交叉注意力网络中的多个不重叠的注意力区域来提取整体和局部的信息;然后将整体与局部提取的注意力图进行融合,来共同训练图像情感分类器并进行情感分析。实验结果表明,提出的方法在真实数据集RAFDB上的情感分类准确率达到了88.53%,优于现有其他方法,验证了该方法的有效性与优越性。  相似文献   
655.
传统机器学习和深度学习模型在处理情感分类任务时会忽略情感特征词的强度,情感语义关系单薄,造成情感分类的精准度不高。本文提出一种融合情感词典的改进型BiLSTM-CNN+Attention情感分类算法。首先,该算法通过融合情感词典优化特征词的权重;其次,利用卷积神经网络(CNN)提取局部特征,利用双向长短时记忆网络(BiLSTM)高效提取上下文语义特征和长距离依赖关系;再结合注意力机制对情感特征加成;最后由Softmax分类器实现文本情感预测。实验结果表明,本文提出的情感分类算法在精确率、召回率和F值上均有较大提升。相较于TextCNN、BiLSTM、LSTM、CNN和随机森林模型,本文方法的F值分别提高2.35%、3.63%、4.36%、2.72%和6.35%。这表明该方法能够充分融合情感特征词的权重,利用上下文语义特征,提高情感分类性能。该方法具有一定的学术价值和应用前景。  相似文献   
656.
贺强  王凯 《科学技术与工程》2022,22(20):8739-8747
针对低成本航空公司官网建设和优化需求,提出一种基于眼动和面部表情(AU)的用户体验分析与预测方法。首先,选择了6个具有代表性的低成本航空公司官网开展体验实验以采集体验过程中的眼动和AU数据。然后,从网页体验过程的眼动行为和情感角度分析官网的用户体验,并与用户的主观评价对比。最后,基于相关性分析提取与用户体验显著相关的眼动和面部表情指标。基于该指标组成的特征向量模式,利用支持向量机方法构建了用户体验的分类预测模型。研究结果表明低成本航空公司官网的建设应该在文字内容、功能区布局、色彩和操作性方面取得平衡才能获得好的用户体验,基于 “眼动+AU”的预测模型能支持用户体验的实时监测和动态评价。  相似文献   
657.
细粒度情感分析是自然语言处理的关键任务之一,针对现有的解决中文影评情感分析的主流方案一般使用Word2Vector等预训练模型生成静态词向量,不能很好地解决一词多义问题,并且采用CNN池化的方式提取文本特征可能造成文本信息损失造成学习不充分,同时未能利用文本中包含的长距离依赖信息和句子中的句法信息。因此,提出了一种新的情感分析模型RoBERTa-PWCN-GTRU。模型使用RoBERTa预训练模型生成动态文本词向量,解决一词多义问题。为充分提取利用文本信息,采用改进的网络DenseDPCNN捕获文本长距离依赖信息,并与Bi-LSTM获取到的全局语义信息以双通道的方式进行特征融合,再融入邻近加权卷积网络(PWCN)获取到的句子句法信息,并引入门控Tanh-Relu单元(GTRU)进行进一步的特征筛选。在构建的中文影评数据集上的实验结果表明,提出的情感分析模型较主流模型在性能上有明显提升,其在中文影评数据集上的准确率达89.67%,F1值达82.51%,通过消融实验进一步验证了模型性能的有效性。模型能够为制片方未来的电影制作和消费者的购票决策提供有用信息,具有一定的实用价值。  相似文献   
658.
提出一种以模糊大脑情感学习(fuzzy brain emotional learning, FBEL)模型作为自适应噪声抵消器的噪声抵消方法,应用于信号处理问题。该方法通过FBEL模拟经非线性通道传输后的噪声信号,将噪声信号从含噪信号中过滤掉,达到消噪的目的;根据自适应学习算法,利用奖励信号和梯度下降法对FBEL模型的权重及参数进行在线更新,以适应噪声的变化。选取均方根误差和计算时间2个性能指标,采用自适应噪声抵消方法在不同网络中进行仿真比较,结果表明,应用该方法可以获得更好的滤波性能。  相似文献   
659.
网络既是大学生的自由地,又是大学生的成长地。但是,作为一种虚拟世界,网络遵循与现实生活截然不同的基本规则,网络成了大学生的温柔陷阱;它引发了大学生的情感迷失症、道德失范症和安全淡漠感。因此,从混乱的网络世界中寻找新的秩序将是大学生新的发展起点。  相似文献   
660.
【目的】针对方面情感分类输入类别在不同领域之间差异较大,汽车用户评论文本语义信息不全,语义特征难以提取等问题,提出基于双通道输入的并行双向编码表征(bidirectional encoder representation from transformers, BERT)双向长短期记忆多头自注意力模型的方面情感分类方法。【方法】首先采用了方面情感和方面抽取的双重标签进行标注;其次通过并行的方面抽取和方面情感分类任务通道,分别使用BERT、双向长短期记忆网络(bidirectional long and short-term memory networks, Bi-LSTM)及多头注意力机制(multihead self-attention, MHSA)提取更深层次的语义信息及近距离和远距离特征信息;最后采用条件随机场(conditional random field, CRF)分类器和Softmax分类器进行分类。【结果】在相关的汽车用户评论文本数据集和多语言混合数据集上,本研究提出的模型相较于主流的方面情感分类方法,具有同步抽取方面词和判断情感极性的能力,且有效提高了方面词抽取和方面情...  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号