介绍
在上一课中,我们学习了梯度的数学定义。 我们看到一个函数的梯度是相对于该函数的每个变量的偏导数的组合。 我们看到了梯度下降的过程涉及沿梯度的负方向移动。 例如,如果某个功能的上升方向是向上和向右移动,则下降方向将向下和向左移动。 在本课程中,我们将对我们的成本函数应用梯度下降,以了解如何通过更改$ m $和$ b $变量来朝最佳拟合回归线移动。
将RSS表示为多变量函数
想一想为什么梯度下降法在成本函数中应用得如此之好。 最初,我们说函数的成本,即我们的回归线预测值与数据集之间的差异,是随