首页 | 本学科首页   官方微博 | 高级检索  
     检索      

基于多模态融合技术的用户画像方法
引用本文:张壮,冯小年,钱铁云.基于多模态融合技术的用户画像方法[J].北京大学学报(自然科学版),2020,56(1):105-111.
作者姓名:张壮  冯小年  钱铁云
作者单位:1. 武汉大学计算机学院, 武汉 430072 2. 中国电力财务有限公司, 北京 100005
基金项目:国家自然科学基金(61572376)资助
摘    要:针对当前用户画像工作中各模态信息不能被充分利用的问题, 提出一种跨模态学习思想, 设计一种基于多模态融合的用户画像模型。首先利用 Stacking集成方法, 融合多种跨模态学习联合表示网络, 对相应的模型组合进行学习, 然后引入注意力机制, 使得模型能够学习不同模态的表示对预测结果的贡献差异性。改进后的模型具有精心设计的网络结构和目标函数, 能够生成一个由特征级融合和决策级融合组成的联合特征表示, 从而可以合并不同模态的相关特征。在真实数据集上的实验结果表明, 所提模型优于当前最好的基线方法。

关 键 词:用户画像  模型组合  stacking  跨模态学习联合表示  多层多级模型融合  
收稿时间:2019-05-21

User Profiling Based on Multimodal Fusion Technology
ZHANG Zhuang,FENG Xiaonian,QIAN Tieyun.User Profiling Based on Multimodal Fusion Technology[J].Acta Scientiarum Naturalium Universitatis Pekinensis,2020,56(1):105-111.
Authors:ZHANG Zhuang  FENG Xiaonian  QIAN Tieyun
Institution:1. School of Computer Science, Wuhan University, Wuhan 430072 2. China Power Finance Co., Ltd, Beijing 100005
Abstract:Existing studies in user profiling are unable to fully utilize the multimodal information. This paper presents a cross-modal joint representation learning network, and develop a multi-modal fusion model. Firstly, a stacking method is adopted to learn the joint representation network which fuse the cross-modal information. Then, attention mechanism is introduced to automatically learn the contribution of different modal to the prediction task. Proposed model has a well defined loss function and network structure, which enables combining the related features in various models by learning the joint representations after feature-level and decision-level fusion. The extensive experiments on real data sets show that proposed model outperforms the baselines.
Keywords:user profiling  model combination  stacking  cross-modal learning joint representation  multi-layer and multi-level model fusion  
本文献已被 CNKI 等数据库收录!
点击此处可从《北京大学学报(自然科学版)》浏览原始摘要信息
点击此处可从《北京大学学报(自然科学版)》下载免费的PDF全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号