下列关于Dropout的说法正确的有()。
ADropout背后的思想其实就是把DNN当作一个集成模型来训练,之后取所有值的平均值,而不只是训练单个DNN
BDNN网络将Dropout率设置为p,也就是说一个神经元被保留的概率是1-p。当一个神经元被丢弃时,无论输入或者相关的参数是什么,它的输出值就会被设置为0
C丢弃的神经元在训练阶段,对BP算法的前向和后向阶段都没有贡献。由于这个原因,每一次训练都像是在训练一个新的网络
DDropout方法通常和L2正则化或其他参数约束技术(比如Max Norm)一起使用,来防止神经网络的过拟合