A正确
B错误
神经网络层之间需要加入激活函数
传统神经网络常用的激活函数是sigmoid与tanh
卷积神经网络经常使用的激活函数有好几种:()、tanh函数、ReLu函数、LeakyReLu函数、PReLu函数等。
假如现在有个神经网络,激活函数是 ReLU,若使用线性激活函数代替 ReLU,该神经网络能表征 XNOR 函数
在某神经网络的隐层输出中,包含0.75,那么该神经网络采用的激活函数可能是()
首页
每日一练
打赏一下
浏览记录