为什么批量梯度下降法(BGD)寻优路径相对比较平滑()
A批量梯度下降法(BGD)每一次对模型参数的调整,都朝向代价函数值减小的方向
B批量梯度下降法(BGD)每一次对模型参数的调整,都朝向代价函数值增加的方向
C批量梯度下降法(BGD)每一次对模型参数的调整,都朝向代价函数值不变的方向
D批量梯度下降法(BGD)每一次对模型参数的调整,都朝向代价函数值发生变化的方向
A批量梯度下降法(BGD)每一次对模型参数的调整,都朝向代价函数值减小的方向
B批量梯度下降法(BGD)每一次对模型参数的调整,都朝向代价函数值增加的方向
C批量梯度下降法(BGD)每一次对模型参数的调整,都朝向代价函数值不变的方向
D批量梯度下降法(BGD)每一次对模型参数的调整,都朝向代价函数值发生变化的方向