排序方式: 共有3条查询结果,搜索用时 0 毫秒
1
1.
迁移学习专注于解决监督学习在小数据集上难以获得好的分类效果的问题,与传统监督学习的基本假设相比,它并不要求训练集和测试集服从相同或相似的数据分布。通过在标注资源丰富的源语言中学习,并将目标语言的文档投影到与源语言相同的特征空间中去,从而解决目标语言因数据量较小而难以获得好的分类模型的问题。选择亚马逊在书籍、DVD和音乐类目下的中文、英文和日文评论作为实验数据,情感分析作为研究任务,提出了一种新的跨语言深度表示学习模型(cross lingual deep representation learning,CLDRL),实现了不同语言环境下的知识迁移。实验结果表明,CLDRL模型在跨语言环境下最优F1值达到了78.59%,证明了该模型的有效性。 相似文献
2.
从评论利益相关者内容与行为特征相结合的角度,提出一种基于个人–群体–商户的主体关系模型(IGMRM)。选择93家店铺中9558个不同IP的97804条评论作为样本数据进行实验,结果表明,IGMRM在识别虚假评论者、存在信用操纵的商铺以及虚假评论者群体的F1值分别达到82.62%、59.26%和95.12%。使用基于评论内容的逻辑回归模型和K最邻近模型作为基线分类方法,识别虚假评论者的F1值分别为52.63%和76.75%,表明IGMRM在识别虚假评论者方面优于传统方法。 相似文献
3.
1