假设我们有一个使用ReLU激活函数(ReLU activation function)的神经网络,假如我们把ReLU激活替换为线性激活,那么这个神经网络能够模拟出同或函数(XNOR function)吗?
A可以
B不好说
C不一定
D不能
相关试题
-
假设我们有一个使用ReLU激活函数(ReLU activation function)的神经网络,假如我们把ReLU激活替换为线性激活,那么这个神经网络能够模拟出同或函数(XNOR function
-
假设我们有一个使用ReLU激活函数(ReLUactivationfunction)的神经网络,假如我们把ReLU激活替换为线性激活,那么这个神经网络能够模拟出同或函数(XNORfunction)
-
假如现在有个神经网络,激活函数是 ReLU,若使用线性激活函数代替 ReLU,该神经网络能表征 XNOR 函数
-
Relu激活函数的优点?
-
卷积神经网络经常使用的激活函数有好几种:()、tanh函数、ReLu函数、LeakyReLu函数、PReLu函数等。