首页 | 本学科首页   官方微博 | 高级检索  
     

基于联邦学习的边缘计算隐私保护方法
作者姓名:葛斌  吴彩  张天浩  沐李亭  夏晨星
作者单位:安徽理工大学计算机科学与工程学院
基金项目:国家重点研发计划基金资助项目(2020YFB1314103);;国家自然科学基金资助项目(62102003);;安徽省自然科学基金资助项目(2108085QF258);
摘    要:针对边缘计算下联邦学习模型参数传递的安全性问题,提出一种基于联邦学习的边缘计算隐私保护方法(EC2PM)。该方法首先利用本地差分隐私(LDP),对参与联邦学习(FL)的边缘设备训练的模型参数添加数据扰动;然后通过调整隐私参数ε控制隐私损失的大小;最后将边缘计算与联邦学习进行结合,模型训练全程无需上传本地数据,实现了在保障边缘用户安全共享数据时,边缘设备的数据本地化训练和模型聚合,解决了边缘用户数据的隐私安全问题。对比实验结果表明,该方法的准确率为86.87%,不仅能够确保聚合模型的准确率而且达到保护模型参数的效果,同时能够满足安全性要求较高的边缘计算场景。

关 键 词:联邦学习  边缘计算  本地化差分隐私  隐私保护
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号