A[-1,0]
B[0,1]
C[-1,1]
D[-0.5,0.5]
Tanh激活函数在神经网络中可以将神经元计算数值变化到以下哪个范围内?
sigmod激活函数在神经网络中可以将神经元计算数值变化到以下哪个范围内?
传统神经网络常用的激活函数是sigmoid与tanh
卷积神经网络经常使用的激活函数有好几种:()、tanh函数、ReLu函数、LeakyReLu函数、PReLu函数等。
24.某个神经网络中所有隐藏层神经元使用tanh激活函数。那么如果使用np.random.randn(…,…)* 1000将权重初始化为相对较大的值会发生什么?( )
首页
每日一练
打赏一下
浏览记录