AReLU
BSoftplus
CTanh
DSigmoid
以下哪些激活函数容易产生梯度消失问题?
以下哪些激活函数容易产生梯度消失问题?(难度:★★★)
以下会造成梯度消失的激活函数有
将Sigmoid激活函数改为ReLu,将有助于克服梯度消失问题
sigmoid函数在深度神经网络中梯度反向时容易导致梯度消失。
首页
每日一练
打赏一下
浏览记录