关于激活函数以下说法正确的是?
Asigmoid 函数在深度神经网络中梯度反向传递时容易导致梯度消失
Btanh 函数对于规模比较大的深度网络计算速度比较慢
CReLU 函数计算速度和收敛速度都比 tanh/sigmoid 快
DReLU 函数的正区间存在梯度消失的问题
Asigmoid 函数在深度神经网络中梯度反向传递时容易导致梯度消失
Btanh 函数对于规模比较大的深度网络计算速度比较慢
CReLU 函数计算速度和收敛速度都比 tanh/sigmoid 快
DReLU 函数的正区间存在梯度消失的问题