试题详情

Sigmoid是神经网络中最常用到的一种激活函数,除非当梯度太大导致激活函数被弥散,这叫作神经元饱和,这就是为什么ReLU会被提出来,因为ReLU可以使得梯度在正向时输出值与原始值一样。这意味着在神经网络中ReLU单元永远不会饱和。

A正确

B错误