首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   3篇
  免费   0篇
综合类   3篇
  2022年   1篇
  2021年   1篇
  2019年   1篇
排序方式: 共有3条查询结果,搜索用时 31 毫秒
1
1.
常识问答是一项重要的自然语言处理任务,旨在让模型结合常识对给定的问题进行解答。然而,现有模型容易受到知识源中噪声知识的干扰,且对多知识源的融合与利用不够充分,所以问答效率低。为此,文章从筛选知识和利用多知识源的角度出发,提出了由多知识源信息获取和多通道融合推理级联而成的常识问答方法。该方法首先从多个外部知识源检索或匹配知识,再根据贪心筛选策略对噪声知识进行过滤,最后利用多个编码通道对知识和问题进行编码,融合各知识源不同类型的信息并推断出答案。算法在数据集Commonsense QA上的结果表明,本文方法在测试集上取得了78.3%的准确率(Accuracy),与不引入外部知识和引入多种外部知识的两个基线方法相比,分别提升了4.8%和3.0%。表明文章提出的知识筛选策略能有效地过滤噪声,且多通道信息融合推理框架能充分融合多知识源的信息进行常识推理。  相似文献   
2.
针对特定自然问题,答案源搜索的目标是检索蕴含答案的相关短文本。在大规模数据集中高效精准地获取答案源,能够有效辅助现有的阅读理解技术实现开放域的答案抽取。以统计和语义编码策略为基础的相关度计算模型,已在获取相关短文本方面取得了显著成果。然而,前者虽具有较高时效性,却往往精度偏低;后者虽精度较高,但却消耗较大计算成本与时空代价。针对这一问题,文章提出一种密度优先策略,旨在利用问题关键词在短文本中的最大分布密度,实现问题与候选答案源的相关性度量。利用SQuAD数据集进行测试,并与现有方法进行对比。实验结果显示,密度优先策略对比其他方法取得了较为明显的性能优势,并体现了较高的计算效率。  相似文献   
3.
为了更好地评价阅读理解模型的鲁棒性, 基于Dureader数据集, 通过自动抽取和人工标注的方法, 对过敏感、过稳定和泛化3个问题分别构建测试数据集。还提出基于答案抽取和掩码位置预测的多任务学习方法。实验结果表明, 所提方法能显著地提高阅读理解模型的鲁棒性, 所构建的测试集能够对模型的鲁棒性进行有效评估。  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号