试题详情

关于激活函数以下说法正确的是?

Asigmoid 函数在深度神经网络中梯度反向传递时容易导致梯度消失

Btanh 函数对于规模比较大的深度网络计算速度比较慢

CReLU 函数计算速度和收敛速度都比 tanh/sigmoid 快

DReLU 函数的正区间存在梯度消失的问题