首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 125 毫秒
1.
针对当前机器阅读理解方法中仅将问题与段落匹配会导致段落中的信息丢失或将问题和答案连接成单个序列与段落匹配会丢失问题与答案之间的交互,和传统的循环网络顺序解析文本从而忽略段落内部推理的问题,提出一种改进段落编码并且将段落与问题和答案共同匹配的模型.模型首先把段落在多个粒度下切分为块,编码器利用神经词袋表达将块内词嵌入向量求和,其次,将块序列通过前向全连接神经网络扩展到原始序列长度.然后,通过两层前向神经网络建模每个单词所在不同粒度的块之间的关系构造门控函数以使模型具有更大的上下文信息同时捕获段落内部推理.最后,通过注意力机制将段落表示与问题和答案的交互来选择答案.在SemEval-2018 Task 11任务上的实验结果表明,本文模型在正确率上超过了相比基线神经网络模型如Stanford AR和GA Reader提高了9%~10%,比最近的模型SurfaceLR至少提高了3%,超过TriAN的单模型1%左右.除此之外,在RACE数据集上的预训练也可以提高模型效果.  相似文献   

2.
针对信息与通信技术(information and communication,ICT)项目及产品数据种类多、形式复杂,难以提取其语义匹配信息,且现有句子级文本匹配模型对不同长度文本无差别编码会引入噪声导致匹配效果差的问题,本文提出一种融合局部和全局特征的实体-文档级联合匹配模型,利用TextCNN编码器提取实体级招投标项目和产品名称的局部信息,消除产品描述中与招投标项目无关信息的影响,再利用卷积-自注意力编码器提取文档级产品描述的局部和全局信息,最后结合实体级和文档级匹配信息进行决策.实验结果表明,招投标项目与供应商产品匹配映射准确率92%以上,方法可直接实际应用.   相似文献   

3.
针对传统Census变换窗口中心点灰度值易受噪声影响而导致全局匹配精度低等问题,设计了一种基于改进Census变换的双目立体匹配算法.首先采用双边滤波的模板值替代传统Census变换窗口中心点的灰度值,为了增强初始代价计算的可靠性,加入Sobel算子,将其与灰度绝对误差和算法的匹配代价进行代价融合;然后选择动态十字交叉域建立相邻视差的联系;最后运用赢家通吃策略选择最佳的视差,并采用左右一致性检测和引导滤波优化视差图.实验结果表明,在无噪声情况下,改进算法的平均误匹配率比传统Census变换的降低了约46%,含噪声情况下降低了约53%,说明改进算法有较好的匹配精度和抗噪能力.  相似文献   

4.
针对传统特征匹配算法匹配率低的问题, 提出一种基于图像梯度信息强化的尺度不变特征转换(SIFT)特征匹配算法的改进算法. 首先通过适当的梯度算子求出梯度图; 然后以特定权值将梯度图与原图融合, 归一化后对融合图像进行高斯模糊; 最后利用传统算法进行特征提取. 实验结果表明, 改进算法的视角、 旋转不变性明显优于原算法, 对亮度变化较大或有噪声的图像匹配率也略有提升, 有效提高了SIFT特征匹配算法的准确性.  相似文献   

5.
基于模糊自适应卡尔曼滤波的SLAM算法   总被引:1,自引:0,他引:1  
针对同步定位与地图创建(SLAM)问题中难以建立准确的先验噪声模型的问题,提出一种改进的模糊自适应卡尔曼滤波算法.该算法通过在线监测新息的变化,利用模糊逻辑对系统噪声和观测噪声的权重进行实时调整,进而改变系统对观测信息的信赖和利用程度,使滤波器最终趋于稳定.为了保证系统的实时性,提出一种直接将输入和输出进行模糊隶属函数匹配的方法代替模糊推理.将新的滤波算法用于SLAM仿真实验,结果表明该算法能根据噪声变化进行快速调整,滤波精度较高,相比标准EKF对定位和构图精度提升了50%以上.  相似文献   

6.
目前事件检测方法往往将句中事件视为独立个体,忽视了句子或文档内事件间的相关关系,且某些触发词在不同语境下可能触发不同事件,而多种语境下训练的词向量会引入与当前语境无语义关联的噪声.针对此问题,本文提出一种融合多级语义特征的双通道GAN事件检测方法,使用多级门限注意力机制获取句子级和文档级事件间的语义相关性,并利用双通道GAN及其自调节学习能力减轻噪声信息的影响,进而提高事件特征表示的准确性.在公开数据ACE2005英文语料上进行实验,F1值达到了77%,结果表明该方法能够有效获取事件间的语义相关性,并提高语境判定的准确性.   相似文献   

7.
针对传统文本特征选择算法没有考虑特征的语义及特征与类别之间关系的问题,提出了一种结合语义和分类贡献的特征选择算法.利用LDA主题模型获取文本和词的表示,通过计算词与文本之间的语义相似度,获取词对文本的重要性.再利用Word2vec词向量模型获取文本类别特征,通过计算文本中的词与文本类别特征之间的语义相似度,获取词对类别的重要性,最后结合词对文本的重要性和词对类别的重要性选择分类贡献度高的词作为最终的分类特征.实验表明,该算法能够有效地降低文本特征数量,减少分类计算开销,降低噪声对分类的影响,提升分类效果.  相似文献   

8.
目前的抽取式单文档摘要方法未考虑原文中句子和原文语义信息相关度,针对该问题,提出一种基于语义空间的抽取式单文档摘要方法.首先,利用Word2Vec训练词向量以获取语义空间,并基于该语义空间表示句子和原文;然后,基于余弦相似度计算句子与原文相似度值,并使用TextRank和词频-逆文本频率指数(TF-IDF)模型计算原文中句子的权重;最后,将相似度值与权重相结合得到句子的最终权重值.实验结果表明,该模型摘要质量优于基于深度学习的基线系统.  相似文献   

9.
针对尺度不变特征变换(Scale Invariant Feature Transform,SIFT)算法在航拍场景分类中提取特征时,易造成边界模糊和细节丢失且无法描述颜色信息的问题,结合视觉词袋模型,提出了非线性尺度空间下融合颜色特征的新型颜色风式特征检测子(Color-KAZE,C-KAZE).通过KAZE构造非线性尺度空间来检测特征信息;对颜色模型(Hue,Saturation,Value,HSV)非等间隔量化获取颜色量化矩阵,进而生成C-KAZE特征描述子;利用视觉词袋和空间金字塔匹配模型融合多特征.实验表明,该算法相比SIFT算法在场景分类准确率方面提高了约8%.C-KAZE描述子增强了KAZE的特征描述能力,突破了SIFT算法特征描述单一、边缘细节模糊的局限性,显著提升了无人机航拍图像的分类效果.  相似文献   

10.
针对现有图像滤波算法在去除高密度椒盐噪声方面的不足,提出了一种基于L1范数变分模型的去噪算法.该算法首先根据椒盐噪声的特点和像素的局部灰度特征分离出噪声点和信号点,在滤波过程中,对信号点不予处理,而对噪声点采用基于L1范数的变分模型进行恢复.由于椒盐噪声的灰度值与原始像素无关,因此,去噪时只利用噪声点邻域内信号点本身的灰度信息,并将已处理过的噪声点当作新的信号点,以避免对下一像素滤波时的影响.最后通过仿真实验,结果表明,在高密度噪声条件下(50%),该算法的噪声去除能力和细节保护能力均可获得令人满意的结果.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号