首页 | 本学科首页   官方微博 | 高级检索  
     

一种使用log函数的新型修正激活单元LogReLU
引用本文:王多民,刘淑芬. 一种使用log函数的新型修正激活单元LogReLU[J]. 吉林大学学报(理学版), 2017, 55(3): 617-622
作者姓名:王多民  刘淑芬
作者单位:吉林大学 计算机科学与技术学院, 长春 130012
摘    要:提出一种新型校正激活函数的改进,该新型校正激活函数带有一个可变参数,使用对数函数对正区域的梯度进行矫正,解决了预测准确率较低的问题.改进的激活函数使用两个不同参数分别控制正区域和负区域的梯度.通过对两个不同数据集进行仿真实验的结果表明,新提出的两种方法效果均好于原始的修正线性单元,带有两个参数的改进使验证错误率分别降低了0.14%和5.33%.

关 键 词:人工智能  激活函数  ReLU  卷积神经网络  
收稿时间:2016-07-26

LogReLU: A New Rectified Activation Unit Using Log Funcion
WANG Duomin,LIU Shufen. LogReLU: A New Rectified Activation Unit Using Log Funcion[J]. Journal of Jilin University: Sci Ed, 2017, 55(3): 617-622
Authors:WANG Duomin  LIU Shufen
Affiliation:College of Computer Science and Technology, Jilin University, Changchun 130012, China
Abstract:We proposed a new revised rectified activation function. The new rectified activation function has a changeable parameter, and the logarithmic function was used to rectify the gradient in positive region, which solved the problem of low accuracy of prediction. The improved activation function used two different parameters to control the gradient in positive region and negative region, respectively. The results of simulation experiments on two different data sets show that the effectiveness of the two new methods is better than that of the original rectified linear units. With the improvement of two parameters, the verification error rate is reduced by 014% and 533%, respectively.
Keywords:ReLU  convolutional neural network  activation function  artificial intelligence
本文献已被 CNKI 等数据库收录!
点击此处可从《吉林大学学报(理学版)》浏览原始摘要信息
点击此处可从《吉林大学学报(理学版)》下载全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号