二.逻辑回归 1.代价函数 可以将上式综合起来为: 其中: 为什么不用线性回归的代价函数表示呢?因为线性回归的代价函数可能是非凸的,对于分类问题,使用梯度下降很难得到最小值,上面的代价函数是凸函数的图像如下,即y=1时: 可以看出,当趋于1,y=1,与预测值一致,此时付出的代价cost趋于0,若趋于0,y=1,此时的代价cost值非常大,我们最终的目的是最小化代价值,同理的图像如下(y=0): 2.梯度 同样对代价函数求偏导: 可以看出与线性回归的偏导数一致. 推导过程: 3.正则化 正则化的目