面向内存受限设备的新型卷积计算方法 |
| |
引用本文: | 孙雁飞,王子牛,孙莹,亓晋,董振江.面向内存受限设备的新型卷积计算方法[J].南京邮电大学学报(自然科学版),2022(5):54-61. |
| |
作者姓名: | 孙雁飞 王子牛 孙莹 亓晋 董振江 |
| |
作者单位: | 1. 南京邮电大学物联网学院;2. 南京邮电大学江苏省高性能计算与智能处理工程研究中心;3. 南京邮电大学自动化学院人工智能学院;4. 南京邮电大学计算机学院 |
| |
基金项目: | 国家自然科学基金(62172235);;中国博士后基金(2019M651923);;江苏省自然科学基金(BK20191381)资助项目; |
| |
摘 要: | 针对卷积神经网络预测过程中内存使用量大,难以部署在内存受限设备上的问题,提出一种面向内存受限设备的新型卷积计算方法。该方法对输入矩阵中部分数据进行卷积计算,并将计算结果存储在临时内存;然后,将临时内存中的计算结果复制到输入矩阵不再使用的内存并重复上述步骤,从而实现对输入矩阵的卷积计算;最后,对单个卷积计算和LeNet进行验证。实验结果表明,该方法计算速度较直接卷积方法更快,且相比im2col、MEC和直接卷积方法,单个卷积计算内存平均使用量分别下降89.29%、82.60%和57.15%,LeNet内存使用量分别下降89.90%、82.21%和28.07%,有效降低了卷积神经网络的内存使用量,有助于在内存受限设备上部署使用。
|
关 键 词: | 深度学习 卷积计算 内存优化 数据复用 边缘设备 |
|
|