二分分类
逻辑回归是一个二分类模型,比如用逻辑回归来判断一张图片是否是小猫。如下图所示,我们的计算机是以红、绿、蓝三种颜色的亮度来表示图片的,计算机是不能理解图像的,所以我们需要把图片转换为计算机方便理解的形式。
假设上面的小猫图片是64X64大小的,我们把红、绿、蓝三个矩阵的所有元素全部取出,构成一个特征向量,就像下面这个样子。他是一个n=12288维的特征向量,好像维数比较大。
这只是一个样本,我们每一个样本使用的是列向量,所以如果有m个样本,那么就可以构建一个nXm的特征矩阵,每一列就是一个训练样本;相应的y标签,就是一个1Xm的特征向量,图中右上角的数字表示第几个。
逻辑回归
逻辑回归是一个监督学习算法,输出的y标签是1或者0,即一个二元分类问题。比如我们输入的x值是一张图片的特征向量,我们想要这个算法给我们预测这张图片是否是猫,更准确的说,我们希望这个算法给出的是一个概率,取值范围为0~1之间。
我们的输入x是特征向量,训练标签y是0或者1。逻辑回归函数的权重(参数)为w,也是一个n维的向量;b是一个实数,最终我们可以得到一个像下图表示的线性函数。
但是很明显,上面的函数取值不是介于0~1之间的,所以我们还需要对这个函数做进一步的处理,于是可以将sigmoid函数作用在上述函数上面,它是一个光滑的连续函数。
上图是sigmoid函数的大致形状,这个函数相信都很熟悉,它在z=0时的取值为0.5,z值越大,概率趋近于1;z值越小,概率越趋近于0。而此处我们的z又代表逻辑回归函数。最后我们可以得到图下图所示的算法。
当我们实现逻辑回归时,实际上是在学习w和b,如果是二维的,就是我们初中所学的线性回归了,不过咱们一般还是高维的。我们在使用神经网络时,更多的是将w和b两个参数分开。
领取专属 10元无门槛券
私享最新 技术干货