A解决了梯度消失
B输出不是以0为中心
C计算方便,计算速度快,求导方便
D加速网络训练
Relu激活函数的优点?
Relu激活函数的缺点?
Relu激活函数在零点可导
假如现在有个神经网络,激活函数是 ReLU,若使用线性激活函数代替 ReLU,该神经网络能表征 XNOR 函数
卷积神经网络经常使用的激活函数有好几种:()、tanh函数、ReLu函数、LeakyReLu函数、PReLu函数等。
首页
每日一练
打赏一下
浏览记录