A正确
B错误
Sigmoid是神经网络中最常用到的一种激活函数,除非当梯度太大导致激活函数被弥散,这叫作神经元饱和,这就是为什么ReLU会被提出来,因为ReLU可以使得梯度在正向时输出值与原始值一样。这意味着在神经
将Sigmoid激活函数改为ReLu,将有助于克服梯度消失问题
卷积神经网络常用的激活函数是ReLU函数,相比于 Sigmoid等S型激活函数,它具有( )等特性
Relu激活函数的优点?
假如现在有个神经网络,激活函数是 ReLU,若使用线性激活函数代替 ReLU,该神经网络能表征 XNOR 函数
首页
每日一练
打赏一下
浏览记录