排序方式: 共有6条查询结果,搜索用时 0 毫秒
1
1.
2.
低秩表示算法,如低秩表示(low-rank representation,LRR)、鲁棒核低秩表示(robust kernel low-rank representation,RKLRR),在处理高维数据方面展现了广阔的应用前景;然而这些方法并不适合高阶数据,传统的低秩表示算法通常只对数据的某一特征属性进行降维。提出了基于张量分解的鲁棒核低秩表示算法(kernel low-rank representation by robust tensor decomposition,RTDKLRR);该算法能够处理高阶非线性的张量数据,对噪声更加鲁棒。首先对RTDKLRR算法设计目标函数并给出约束条件;其次,设计迭代规则对目标函数进行优化。在合成数据集和真实数据集上的实验结果表明优于同类算法。 相似文献
3.
4.
5.
Learning to Rank(L2R)技术是对搜索结果进行排序,是近几年的研究热点。现关于L2R中的PairWise方法进行研究分析,PairWise方法将排序问题转化为二元分类问题,其缺点是只考虑两篇文档的相对顺序,而不考虑文档出现在搜索结果列表中的位置。另外,不同的查询拥有的文档对数目不同,结果会向拥有文档对较多的查询偏移。对常用的PairWise算法的损失函数及其求解方法、基本思想、算法框架、效用评价以及算法应用进行概括分析。 相似文献
6.
为了解决在文本分类中神经网络训练时产生的梯度消失、特征信息丢失以及注意力机制短语维度组合不匹配的问题,提出一种基于密集池化连接和短语注意力机制的文本分类算法.首先,通过密集池化连接中的残差网络部分进行特征提取,可有效缓解梯度消失问题;其次,通过池化层复用重要特征,改善特征信息丢失问题;最后,通过改进常规注意力机制,提出短语注意力机制,可灵活得到不同阶短语之间的联系,解决常规注意力机制短语维度不匹配问题.结果表明,该模型在对比模型中取得了最好的效果,在相同的新闻数据集中准确率可达92.7%,同时还对3个对比模型的收敛性和分类准确性进行分析,可见改进后的模型可以有效缓解梯度消失,并且解决短语维度组合不匹配问题,从而提高了分类准确性. 相似文献
1