二元、多元线性回归方程:
抽象的模型可以转化为下图(未画入θ)
说明:
左端输入特征值x
连线w代表各自的权重
整合运算后得到预测值y
W和θ皆可以代表权重
增加截距θ(偏置项)如图左,右图为逻辑回归的形式
将线性回归得到的预测值代入Sigmoid函数后即可变为逻辑回归,
增加隐层和输出就是神经网络了,如图
可以简单地把神经网络看做逻辑回归元构成的网络
从隐层开始每个神经元是上一层逻辑回归的结果并且作为下一层的输入,篇幅限制,我们将在下一篇将详细介绍逻辑回归的公式与代码
上一篇是线性回归,这一篇我们将学习
学习计算代价函数
直观理解梯度下降
线性回归---预测房价
正文开始
1.代价函数
数理统计中我们常用方差衡量一组数据的离散程度,线性回归中则是通过计算样本集中所有的预测值y与所有对应的真实值Y的方差,比较他们的拟合程度。
以一元线性回归为例
三个样本(1,1)(2,2)(3,3)
初始化参数θ=0θ1=0.5
关于θθ1的代价函数为:
解释:上标(i)代表样本序号,m代表样本数量
得到代价函数后,调整参数使它们拟合,一种常用的让代价函数J的值最小的方法叫作梯度下降。
2.梯度下降
举例来看,根据某组数据计算得到的参数为θθ1的代价函数绘制为下图
开始时,我们初始化参数θθ1,得到的代价函数的值很大,像位于整个模型的山坡上,这意味着我们的线性回归模型的预测值和真实值误差很大,所以梯度下降形象来说就是“沿着最陡的方向下山”
对代价函数J求出θθ1各自的偏导数,然后同时更新(同时更新非常关键),乘上学习率ɑ得到“要下降的高度”自减即完成一次更新,直到拟合为止。
解答:ɑ代表学习率;对多元函数的某一个参数求偏导可以理解为把其他参数看做常数来后对它求斜率,如图得到θ1的斜率
化简
整理
化简偏导数后得到了一元线性回归的梯度下降算法
编程实战——线性回归预测房租
现有一组数据(样本)房子的面积和对应的租金,试预测其走向
数据
算法
领取专属 10元无门槛券
私享最新 技术干货