A增加网络深度
B使用Sigmoid激活函数
C使用ReLU激活函数
D采用Batch Normalization
下面哪些方法有助于解决深度网络的梯度消失问题()
resnet可以很好解决梯度消失问题。
以下哪些激活函数容易产生梯度消失问题?
将Sigmoid激活函数改为ReLu,将有助于克服梯度消失问题
梯度爆炸问题是指在训练深度神经网络的时候,梯度变得过大而损失函数变为无穷。在RNN中,下面哪种方法可以较好地处理梯度爆炸问题?
首页
每日一练
打赏一下
浏览记录