有许多种梯度下降算法,其中两种最出名的方法是l-BFGS和SGD。l-BFGS根据二阶梯度下降而SGD是根据一阶梯度下降的。 只有在数据很稀疏的场景中,会更加偏向于使用l-BFGS而不是SGD
A正确
B错误
scikit-learn 中的SGD方法是指梯度下降法
哪一项对梯度下降(GD)和随机梯度下降(SGD)的描述是正确的?1 在 GD 和 SGD 中,每一次迭代中都是更新一组参数以最小化损失函数。2 在 SGD 中,每一次迭代都需要遍历训练集中的所有样本
首页
每日一练
打赏一下
浏览记录